Une organisation de recherche à but non lucratif, le Center for AI and Digital Policy, a déposé une plainte officielle contre OpenAI pour violation du droit commercial américain avec le lancement de son produit GPT-4. L’organisation a demandé à la Federal Trade Commission (FTC) des États-Unis d’enquêter sur OpenAI pour pratiques anticoncurrentielles et de réglementer le système d’IA pour garantir la transparence, l’équité et la responsabilité. Le Policy Center a également reproché à OpenAI d’avoir exclu toute responsabilité pour les conséquences et les dommages causés par son produit.
Selon OpenAI lui-même, la désinformation, les campagnes de manipulation et la cybersécurité sont des menaces spécifiques pour lesquelles les systèmes d’IA ont été identifiés. Cependant, l’organisation affirme avoir averti les utilisateurs des risques potentiels de leurs systèmes d’IA sans assumer aucune responsabilité. Le Policy Center affirme que GPT-4 ne remplit pas les conditions fixées par l’agence américaine, y compris la transparence, l’équité et la base empirique, et poursuit en déclarant qu’OpenAI présente un risque pour la vie privée et la sécurité publique.
De plus, l’autorité italienne de protection des données a suspendu ChatGPT, un chatbot d’IA générative d’OpenAI, jusqu’à nouvel ordre. Par ailleurs, le 20 mars, l’autorité a menacé OpenAI d’une amende de 1 million d’euros en lien avec un problème de sécurité “à des fins de formation”. De plus, ChatGPT n’a pas de filtrage par âge, ce qui augmente le risque d’exposer les mineurs à un contenu perturbateur. OpenAI doit prendre des mesures de protection dans les trois semaines pour empêcher l’utilisation abusive des données personnelles ; Sinon, l’entreprise devra limiter son utilisation ou bloquer complètement l’accès italien.
À la lumière de ces événements, les experts sont divisés sur les risques de l’IA et la nécessité d’un moratoire. Alors que certains experts appellent à une pause pour comprendre les problèmes de risque, d’autres recommandent de travailler pour maîtriser les risques et suivre OpenAI et GPT-4. Le Future of Life Institute a publié un manifeste qui attire l’attention sur les risques des grands systèmes d’IA et appelle à une interruption de six mois.
Enfin, le Large-scale Artificial Intelligence Open Network (LAION) propose un CERN pour la recherche en IA et appelle à la formation de modèles open-source à grande échelle avant la mise sur le marché des produits. Ils suggèrent que la justification axée sur la recherche mérite d’être prise en compte, car les risques liés à l’IA restent un sujet de discussion. Les deux côtés du débat doivent évaluer ces arguments afin de parvenir à une conclusion objective.