Alors que l’intelligence artificielle générative prend son essor, les géants de la tech comme Apple se doivent d’adopter une approche responsable dans le développement de leurs modèles d’IA. C’est dans cette optique qu’Apple vient de publier un document technique détaillant les coulisses d’Apple Intelligence, sa gamme de fonctionnalités d’IA générative qui sera déployée sur iOS, macOS et iPadOS dans les prochains mois.
Une approche éthique et transparente
Face aux accusations d’avoir utilisé des méthodes discutables pour entraîner certains de ses modèles, Apple affirme avoir misé sur une combinaison de données publiques et sous licence, tout en excluant les données privées des utilisateurs. Les modèles Apple Foundation Models (AFM) ont ainsi été entraînés sur :
- Des données web publiques filtrées par le robot Applebot
- Des données sous licence provenant d’éditeurs
- Des jeux de données open source de haute qualité
- Du code open source hébergé sur GitHub (Swift, Python, C…)
Au total, les données d’entraînement des modèles AFM pèsent environ 6,3 billions de tokens, ce qui reste modeste comparé aux 15 billions utilisés par Meta pour son modèle Llama 3.1.
Nos modèles ont été créés dans le but d’aider les utilisateurs dans leurs activités quotidiennes sur les produits Apple, ancrés dans nos valeurs fondamentales et nos principes d’IA responsable à chaque étape.
– Apple
Des zones d’ombre persistent
Si Apple se veut rassurant, certaines questions restent en suspens. Quid des créateurs dont les œuvres sont hébergées sur des sites qui refusent de bloquer l’indexation par Applebot ? Et qu’en est-il des dépôts de code qui n’autorisent pas l’entraînement de modèles d’IA dans leurs conditions d’utilisation ?
Seules les batailles juridiques à venir permettront de trancher sur la légalité et l’éthique des pratiques d’entraînement des IA génératives. En attendant, Apple tente de se positionner comme un acteur responsable, tout en évitant les écueils légaux.
Vers une IA éthique et performante
Malgré ces zones d’ombre, la démarche d’Apple témoigne d’une prise de conscience de l’industrie quant aux enjeux éthiques liés à l’essor de l’IA générative. En misant sur des données publiques et sous licence, en excluant les données privées des utilisateurs et en filtrant le code open source utilisé, la firme à la pomme pose les bases d’un développement plus responsable.
Reste à voir si cette approche permettra à Apple Intelligence de rivaliser avec les modèles des concurrents en termes de performances, tout en gagnant la confiance des utilisateurs et des régulateurs. L’avenir nous le dira, mais une chose est sûre : l’IA éthique sera un enjeu majeur des prochaines années, et Apple semble déterminé à prendre une longueur d’avance.