L’intelligence artificielle est sur toutes les lèvres en ce moment, mais pas toujours pour les bonnes raisons. Cette semaine, des révélations troublantes secouent le monde de l’IA, en particulier le leader du secteur, OpenAI. Des lanceurs d’alerte, anciens employés de la société, pointent du doigt de graves manquements en matière de sécurité et appellent à davantage de transparence.
OpenAI dans la tourmente
Selon le New York Times, ces ex-salariés accusent OpenAI de ne pas en faire assez pour prévenir les risques liés à ses systèmes d’IA, potentiellement dangereux. Ils dénoncent également les méthodes musclées utilisées par l’entreprise pour empêcher ses employés de tirer la sonnette d’alarme.
Tant qu’il n’y aura pas de supervision gouvernementale efficace de ces entreprises, les employés actuels et anciens sont parmi les rares personnes capables de les tenir responsables devant le public.
– Extrait de la lettre ouverte des ex-employés d’OpenAI
Dans une lettre ouverte publiée mardi, ils appellent les leaders de l’IA comme OpenAI à faire preuve de davantage de transparence et à mieux protéger les lanceurs d’alerte. Mais il est peu probable que ces entreprises, qui n’hésitent pas à faire signer des clauses de non-dénigrement à leurs employés, écoutent ces revendications.
Quand les géants de l’IA tombent en panne
Comme un symbole des défis à relever, les plateformes phares de l’IA générative comme ChatGPT, Claude ou Gemini ont toutes subi une panne simultanée ce matin. Si les services ont depuis été rétablis, les causes de cet incident restent floues. De quoi souligner la fragilité de ces systèmes complexes.
OpenAI mise sur la fusion nucléaire
Pour alimenter ses data centers énergivores, OpenAI envisage un partenariat avec la start-up de fusion nucléaire Helion Energy, révèle le Wall Street Journal. Un accord qui pourrait permettre à l’entreprise d’IA d’acheter de grandes quantités d’électricité. Reste à savoir si cela suffira à verdir son image.
Le coût prohibitif des données d’entraînement
Comme le rapporte TechCrunch, les coûts faramineux des licences de données nécessaires à l’entraînement des modèles d’IA deviennent monnaie courante. Un phénomène qui risque de rendre la recherche en IA inaccessible aux petites structures et au monde académique.
IA et désinformation musicale
Les générateurs de musique dopés à l’IA sont détournés par des acteurs malveillants pour créer des chansons haineuses, homophobes ou racistes. Pire, des guides expliquant comment procéder circulent librement.
Cohere lève 450 millions de dollars
Selon Reuters, la start-up d’IA générative Cohere, focalisée sur les entreprises, a levé 450 millions de dollars auprès d’investisseurs de renom comme Nvidia, Salesforce Ventures ou Cisco. Sa valorisation atteindrait désormais les 5 milliards.
En bref
- Une étude d’OpenAI montre comment rendre GPT-4 plus fiable pour résoudre des problèmes mathématiques
- Microsoft présente Aurora, un modèle d’IA météo surpassant les systèmes traditionnels
- Une réflexion d’Avital Balwit d’Anthropic : l’IA générative pourrait rendre le travail obsolète d’ici 3 ans
Alors que l’IA fascine et inquiète à la fois, les événements de cette semaine nous rappellent l’importance cruciale de garder un œil critique et vigilant sur cette technologie révolutionnaire, mais pas sans risques. Aux entreprises du secteur de prendre leurs responsabilités, dans la transparence et le dialogue.