L’Intelligence Artificielle d’Apple Est-elle Sûre ou Non ?

Alors qu’Apple s’apprête à introduire plusieurs nouveaux programmes d’intelligence artificielle (IA), la question sur toutes les lèvres est : l’Intelligence Artificielle d’Apple est-elle sûre ? Les avis divergent fortement selon les autorités et les parties prenantes. La firme à la pomme travaille d’arrache-pied pour trouver le juste équilibre entre innovation et confidentialité des données utilisateurs.

Apple mise sur ChatGPT et un nouveau système cloud sécurisé

Apple a annoncé un partenariat prometteur avec OpenAI pour intégrer le fameux ChatGPT directement dans ses appareils, accessible gratuitement via Siri ou des outils d’écriture. Mais la firme ne s’arrête pas là. Elle développe en parallèle Cloud privé, un système cloud dédié au traitement privé de l’IA, étendant ses standards élevés de sécurité des iPhone au cloud.

Nous sommes ravis de nous associer à Apple pour proposer ChatGPT à ses utilisateurs d’une nouvelle manière. Apple partage notre engagement en matière de sécurité et d’innovation.

Sam Altman, PDG d’OpenAI

Des mesures de confidentialité renforcées pour ChatGPT

Fidèle à sa réputation, Apple impose des règles de confidentialité plus strictes à l’intégration de ChatGPT comparé aux politiques habituelles d’OpenAI :

  • Masquage des adresses IP des utilisateurs
  • Aucun stockage des requêtes par OpenAI
  • Accès aux données personnelles réservé à l’utilisateur, sans possibilité pour Apple ou des tiers

Elon Musk sonne l’alarme sur la sécurité

Pourtant, des voix s’élèvent contre ces initiatives. Elon Musk, propriétaire de Tesla et X et critique notoire d’OpenAI, n’y est pas allé de main morte. Il qualifie l’intégration de ChatGPT par Apple de « violation inacceptable de la sécurité » et menace même d’interdire les appareils Apple dans ses entreprises !

L’UE exclut l’Intelligence Artificielle d’Apple de son marché

Autre coup dur : les utilisateurs européens n’auront pas accès à ces nouvelles fonctionnalités d’IA. La faute à la Loi sur les marchés numériques (DMA) et son exigence d’interopérabilité, jugée incompatible avec les engagements de confidentialité d’Apple.

IA et droits de l’homme : un équilibre délicat

Au-delà d’Apple, c’est tout le développement de l’IA qui soulève des questions éthiques. Michelle Bachelet, Haut-Commissaire de l’ONU aux droits de l’homme, appelle à un moratoire sur les systèmes d’IA à haut risque. Elle insiste : respect de la vie privée et des droits humains sont essentiels pour prévenir dérives et discriminations.

L’IA amplifie la capacité d’utiliser les informations personnelles d’une manière qui peut porter atteinte aux intérêts de la vie privée.

La Brookings Institution

Selon Craig Federighi, VP de l’ingénierie logicielle chez Apple, la transparence est clé. Le cloud privé d’Apple se veut auditable par des experts indépendants. Mais en définitive, c’est à chacun de rester vigilant et de décider ce qui lui semble approprié en matière de sécurité de ses données personnelles. Un défi de taille à l’heure où l’IA révolutionne nos vies !

author avatar
MondeTech.fr

À lire également