OpenShift AI 2.22 utilise une architecture multicouche pour l'authentification des services d'inférence, s'appuyant sur le serveur OAuth intégré d'OpenShift 4.19, les Service Accounts Kubernetes, et des composants spécialisés comme Authorino pour la sécurisation des modèles ML via KServe.
oc whoami -t
# Exemples de commandes d'authentification
# Récupération du token utilisateur
oc whoami -t
# Connexion avec token
oc login --token=sha256~...
# Requête d'inférence authentifiée
curl -X POST https://model-endpoint.apps.cluster.com/v1/models/mon-modele:predict \
-H "Authorization: Bearer $(oc whoami -t)" \
-H "Content-Type: application/json" \
-d '{"instances": [{"data": "exemple"}]}'
# Récupération du token depuis secret de modèle
oc get secret <token-secret> -o jsonpath='{.data.token}' | base64 -d
# Configuration OAuth avec durée personnalisée
apiVersion: config.openshift.io/v1
kind: OAuth
metadata:
name: cluster
spec:
tokenConfig:
accessTokenMaxAgeSeconds: 172800 # 48 heures
# Vérifier la validité d'un token
oc auth can-i get pods --token=<your-token>
# Tester l'endpoint d'inférence
curl -I -H "Authorization: Bearer <token>" <inference-endpoint>
# Lister les tokens OAuth utilisateur
oc get useroauthaccesstokens
# Vérifier les logs Service Mesh
oc logs -n istio-system deployment/istiod | grep -i auth
# Supprimer un token expiré
oc delete useroauthaccesstoken <token-name>