Les grands modèles de langage (LLM), avec leurs performances quasi humaines pour les tâches textuelles, fascinent autant qu’ils déconcertent. Passant haut la main le test de Turing, ces outils d’IA générative promettent une révolution dans de nombreux domaines. Pourtant, leur tendance au « baratin », à avancer des faits sans souci de leur véracité, soulève d’importantes questions sur leur fiabilité et les applications possibles.
Le « Baratin » des LLM, un Mal Nécessaire ?
Comme le soulignent Hicks, Humphries et Slater dans leur article « ChatGPT is bullshit », les LLM partagent les traits des experts en baratin, tel que défini par le philosophe Harry Frankfurt. Dire ce qui convient pour convaincre, sans réel souci de la vérité ou même de la cohérence interne. Les fameuses « hallucinations » des LLM en sont la parfaite illustration.
Certains pensent que ce problème sera résolu avec les progrès de l’IA, mais c’est méconnaître le fonctionnement intrinsèque des LLM, basé sur des statistiques et non une vérité absolue. Cette capacité d’improvisation permanente fait partie intégrante des LLM. Dès lors, plutôt que de chercher à l’éliminer, la vraie question est de savoir comment exploiter au mieux un tel « baratineur ».
Des Baratineurs de Talent en Cybersécurité ?
La cybersécurité est l’un des domaines où l’utilité des LLM fait débat. L’urgence des défis à relever pousse à envisager de nouveaux outils, mais intégrer un baratineur dans l’équipe est une perspective déroutante. Leur utilisation pourrait se limiter à une simple présentation d’informations préalablement vérifiées, mais ce serait sous-exploiter leur potentiel.
En tant qu’instruments d’attaque, les LLM pourraient générer du contenu crédible pour des campagnes d’ingénierie sociale ou pour corrompre des données et processus. En défense, ils permettraient de créer des leurres ou « honeypots » avec des données ou processus volontairement erronés. Mais attention à ne pas semer la confusion en interne !
Les LLM représentent-ils eux-mêmes une faille de sécurité ? Bonne nouvelle, si un processus a été conçu en tenant compte de leur capacité de baratin, il y a peu de risques supplémentaires en cas d’attaque ciblant directement le LLM.
Apprivoiser les Baratineurs de l’IA
Au final, la question clé est de savoir comment tirer le meilleur parti de ces outils fascinants mais imparfaits. C’est un changement de paradigme pour les entreprises, qui n’avaient jusqu’ici jamais eu à se demander quels postes confier à d’excellents baratineurs !
Malgré leur manque de fiabilité intrinsèque, les LLM ont un fort potentiel si l’on apprend à composer avec leurs spécificités. Il faut concevoir des processus et systèmes suffisamment robustes pour absorber une part d’incertitude et d’erreur, tout en exploitant leur incroyable capacité à générer du contenu et des interactions. Un vrai défi, mais la clé pour révéler tout le potentiel de ces technologies d’IA générative.