Apple Intelligence peine avec les sujets controversés et les gros mots

Avec la sortie de la version bêta développeur d’iOS 18.1 le mois dernier, Apple a offert aux utilisateurs un premier aperçu concret des fonctionnalités d’Apple Intelligence. Parmi les nouveaux services désormais disponibles partout, on trouve les Outils d’écriture, qui permettent de reformater ou de réécrire du texte en utilisant les modèles d’IA d’Apple. Mais l’outil affiche un message avertissant que les suggestions générées par l’IA pourraient ne pas être de la meilleure qualité lorsqu’il s’agit de certains sujets.

Vous pouvez faire appel à Apple Intelligence à peu près n’importe où dans le système lorsque vous avez besoin de retravailler un texte. Cependant, lorsque vous essayez de réécrire un paragraphe ou une phrase contenant des gros mots, y compris « m— » et « b— », vous verrez un avertissement indiquant que « Les outils d’écriture n’ont pas été conçus pour gérer ce type de contenu », avec un en-tête mettant en garde sur le fait que la qualité de la réécriture peut varier.

Des sujets sensibles qui mettent Apple Intelligence mal à l’aise

Les gros mots ne sont pas les seuls éléments qui déclenchent cet avertissement. Les mentions de drogues, de meurtre ou d’assassinat feront également apparaître ce message de mise en garde. Même lorsqu’Apple Intelligence affiche l’avertissement, il propose toujours des suggestions de phrases lorsque vous utilisez l’un des mots ou expressions pour lesquels il n’a pas été entraîné.

Lors des tests, j’ai remplacé « m— » par « nul » pour faire disparaître l’avertissement, et l’outil d’IA m’a renvoyé exactement la même suggestion qu’auparavant. Apple évite probablement toute controverse en interdisant l’utilisation de certains mots, sujets et tons lorsque son IA réécrit des phrases.

Une approche prudente pour éviter les dérapages

Les outils d’écriture alimentés par Apple Intelligence ne sont de toute façon pas conçus pour générer du contenu à partir de zéro. Cependant, Apple tient à avertir les utilisateurs lorsque l’IA examine ces termes. Il a fallu des années à Apple pour supprimer le blocage des gros mots dans les suggestions d’autocorrection du clavier.

L’année dernière, avec iOS 17, Apple a enfin déployé une fonctionnalité d’autocorrection qui apprend vos jurons. Peut-être qu’avec Apple Intelligence, Apple fait preuve de prudence pour éviter que les régulateurs ne l’accusent de générer du contenu problématique.

Un équilibre délicat entre performances et éthique pour l’IA

Alors que les géants de la technologie se lancent dans la course à l’IA générative, ils doivent naviguer prudemment entre puissance des modèles et considérations éthiques. Les outils comme Apple Intelligence, bien que prometteurs, mettent en lumière les défis auxquels sont confrontées ces entreprises :

  • Former l’IA à gérer des sujets sensibles de manière appropriée
  • Éviter la génération de contenu offensant ou préjudiciable
  • Trouver le juste milieu entre liberté d’expression et modération
  • Rassurer les utilisateurs et les régulateurs sur la fiabilité de l’IA

Apple semble avoir choisi une approche prudente et progressive avec Apple Intelligence, préférant limiter les capacités de l’outil plutôt que de risquer des dérapages incontrôlés. Reste à voir si cette stratégie portera ses fruits à long terme, face à des concurrents potentiellement moins frileux.

L’avenir de l’IA d’Apple : des progrès mesurés

Malgré ces limitations, l’intégration d’Apple Intelligence dans l’écosystème de la marque à la pomme représente une avancée significative. Les utilisateurs peuvent désormais bénéficier d’une assistance IA directement dans leurs applications, que ce soit pour réécrire un email, reformuler un message ou corriger des fautes d’orthographe.

Apple continuera probablement à perfectionner ses modèles d’IA dans les mois et années à venir, en s’efforçant d’élargir leurs capacités tout en maintenant un haut niveau d’éthique et de responsabilité. Les futures versions d’iOS et des autres systèmes d’exploitation de l’entreprise devraient apporter leur lot de nouveautés liées à l’intelligence artificielle.

« Nous pensons que l’IA peut être incroyablement bénéfique pour l’humanité, mais seulement si elle est développée et utilisée de manière responsable. C’est l’approche que nous adoptons chez Apple. »

– Tim Cook, PDG d’Apple, lors de la WWDC 2023

En attendant, les utilisateurs peuvent d’ores et déjà expérimenter les capacités d’Apple Intelligence et de ses outils d’écriture, tout en gardant à l’esprit leurs limitations actuelles. La route vers une IA véritablement polyvalente et fiable est encore longue, mais Apple semble déterminé à y avancer pas à pas, avec prudence et discernement.

author avatar
MondeTech.fr

À lire également