Apple interdit l’utilisation des chatbots IA, y compris ChatGPT, invoquant des problèmes de sécurité des données

Apple interdit à ses employés d’utiliser des chatbots d’intelligence artificielle comme ChatGPT

Selon des documents internes de l’entreprise consultés par le Wall Street Journal (WSJ), Apple a interdit à ses employés d’utiliser des chatbots d’intelligence artificielle (IA) comme ChatGPT et d’autres outils, de peur que les employés ne divulguent des informations confidentielles sur l’entreprise.

Selon le média, Apple a demandé à ses employés de ne pas utiliser le ChatGPT d’OpenAI ou le Copilot GitHub de Microsoft, qui automatise l’écriture de code logiciel.

Depuis son ouverture l’année dernière, ce type d’IA générative a été largement utilisé pour écrire des e-mails, du texte pour des présentations et même de la programmation.

Apple est connu pour être très secret sur ses projets et très strict sur la sécurité des informations sur les futurs produits.

Selon WSJ, Apple travaille également sur ses propres modèles de langage (LLM) pour former sa propre IA.

Les fabricants d’iPhone ne sont pas les seuls à imposer cette interdiction à leurs employés.

Pour sa part, son compatriote géant de la technologie Amazon a exhorté ses ingénieurs qui souhaitent utiliser ChatGPT pour l’assistance au codage à utiliser son propre outil d’IA interne. Et des entreprises comme JPMorgan Chase et Verizon ont complètement interdit l’utilisation de ces outils.

Mais maintenant, nous voyons également des cas comme les écoles de New York qui ont initialement rejeté ces outils et choisissent maintenant d’intégrer l’IA dans les programmes de tous les programmes.