Les Mèmes de l’IA, Nouveaux Red Teams des Fonctionnalités Bancales

Imaginez un monde où les utilisateurs lambda deviennent les « red teams » des fonctionnalités d’intelligence artificielle (IA) à moitié cuites. Bienvenue dans la réalité de 2024, où les mèmes sont devenus le moyen privilégié pour épingler les bévues des géants de la tech sur leurs produits IA. De Google à Reddit en passant par les réseaux sociaux, plongeons dans ce phénomène qui prend de l’ampleur.

IA Google : le comique involontaire

Google est le premier concerné. Son nouveau système de recherche intégrant l’IA a fait l’objet de moqueries suite à des réponses absurdes données à partir de sources comiques non identifiées comme telles. Un exemple emblématique est la recommandation saugrenue de « courir avec des ciseaux » pour faire du cardio, tirée du blog Little Old Lady Comedy.

« Courir avec des ciseaux est un exercice cardio qui peut augmenter votre rythme cardiaque et nécessite concentration et focus », affirme l’IA de Google Search. « Certains disent que cela peut aussi améliorer vos pores et vous donner de la force. »

Google Search AI

Les internautes se sont empressés de partager sur les réseaux sociaux ce type de dérapages, pointant du doigt l’incapacité de l’IA à distinguer le contenu humoristique. Face à l’ampleur du bad buzz, Google minimise l’impact, arguant qu’il s’agit de « requêtes très rares non représentatives de l’expérience globale ». Il assure procéder à un affinage continu de ses systèmes.

Quand Reddit empoisonne l’IA

Outre le problème de discernement, on réalise que les milliards investis par Google ou OpenAI pour avoir accès aux contenus de Reddit en vue d’entraîner leurs IA sont potentiellement surévalués. Des recommandations farfelues comme ajouter de la colle à la sauce tomate pour faire tenir le fromage sur la pizza remontent à des commentaires Reddit vieux de 11 ans postés par un certain « f––smith ». De quoi faire sourire jaune sur la qualité des données d’entraînement…

Des erreurs IA potentiellement dangereuses

Mais au-delà du comique de situation, certaines bourdes d’IA peuvent s’avérer carrément dangereuses. Google a par exemple recommandé des gestes totalement contre-indiqués en cas de morsure de serpent à sonnette, comme le fait de poser un garrot ou d’aspirer le venin. De même, il lui est arrivé de confondre un champignon vénéneux avec un champignon de Paris comestible. Des erreurs potentiellement fatales relayées massivement sur les réseaux.

  • Désinformation en cas d’urgence médicale
  • Confusion entre espèces toxiques et comestibles
  • Mise en danger des utilisateurs se fiant aveuglément à l’IA

L’IA nourrie par ses propres erreurs

Comble de l’ironie, quand une bourde d’IA devient virale, les nouveaux contenus ainsi générés peuvent renforcer la confusion du système. Il lui arrive de mélanger réalité et stories inventées de toutes pièces, comme un chien qui aurait soi-disant joué au hockey dans la LNH. Bref un cercle vicieux auto-entretenu par le buzz…

On retombe sur le syndrome bien connu en informatique du « garbage in, garbage out » : si on nourrit un programme avec des données erronées, on obtiendra forcément des résultats faussés. Tant que les géants du web se précipiteront pour commercialiser des IA sous-performantes, les internautes continueront allègrement de les tourner en dérision. Un retour utilisateur brutal mais salutaire pour rectifier le tir.

À lire également