Lorsque l’IA se trompe : quelles sont les dérives de concepts et des hallucinations?
L’intelligence artificielle et l’apprentissage machine (machine learning) sont entrés dans notre quotidien et sont l’objet d’une intense recherche académique.
En particulier deux questions importantes limitent les performances et mettent les algorithmes en échec : lorsqu’il y a peu de données et/ou lorsque ces données évoluent dans le temps. C’est l’objet de ce webinaire : l’utilisation des hallucinations pour augmenter le volume de données et la prise en compte du « data drift » ou « concept drift » pour adapter les modèles d’IA.
La ville de Melbourne utilise un modèle d’IA pour anticiper les accidents de la circulation. Lors de la pandémie de COVID19 les données statistiques de circulations ont montré un changement notable lié au confinement et les algorithmes n’étaient plus efficaces pour inférer les risques. Les modèles appris par l’algorithme avaient « dérivé ». On comprend l’importance pratique de pouvoir adapter les modèles à ce « concept drift » !
Pour approfondir cette question et évoquer les solutions pour détecter et prendre en compte ces changements dans les IA modernes… rejoignez notre webinaire !
Nous aborderons les points suivants :
- "L'erreur est humaine"... vraiment ?
- Deux cas concrets :
- la dérive de concept
- l'hallucination artificielle
- Mitiger l'erreur artificielle, nos pistes
- Pour aller plus loin
L’organisateur du webinar pourra utiliser les coordonnées des participants, pour leur communiquer des informations commerciales liées à son activité professionnelle. Pour en savoir plus, s’y opposer ou exercer vos droits, voir leur Politique de confidentialité ci-dessous :
Telecom Paris (180 092 025 00162) Politique de confidentialité
Les expertises associées
Big data
Data science
Données
Intelligence Artificielle (IA)
Traitement du langage naturel / NLP
Les ressources à télécharger
Retrouvez ci-dessous le(s) document(s) mis à votre disposition par l’organisateur du webinar.