GPT-4 est la limite : des experts et des personnalités comme Elon Musk demandent de suspendre le développement de l'IA pour éviter les risques dans la société

L' développement en Intelligence Artificielle progresse, nous atteignons également la limite que les experts considèrent comme sûre. Elon Musk, membre fondateur d'OpenAI, créateurs de ChatGPT, ainsi que d'autres experts en IA, ont publié une déclaration plutôt alarmante qui met sur la table quels seront les risques pour la société.

GPT-4 est considéré comme la dernière norme sûre pour l'instant et la course acharnée au développement de l'IA dans les laboratoires est entrée dans une phase hors de contrôle du fait de la concurrence où les conséquences pourraient être irréversibles.

des experts et des personnalités comme Elon Musk demandent de suspendre le développement de l'IA

Les chats IA "sont un risque pour la société"

Toute avancée technologique peut présenter un risque, mais les prévisions de certains experts du domaine sont alarmantes. Il y a quelques jours, nous nous félicitions de GPT-4 et de ses possibilités d'implémentation dans ChatGPT, mais il semble qu'il y ait une barrière entre

In une lettre ouverte , Elon Musk et un groupe d'experts en IA et de dirigeants de l'industrie appellent pour une pause de six mois sur le développement systèmes plus puissants que le GPT-4 récemment publié par OpenAI : "Nous appelons tous les laboratoires d'IA à suspendre immédiatement la formation des systèmes d'IA plus puissants que GPT-4 pendant au moins 6 mois."

GPT-4

Les raisons de demander cette pause dans le développement sont qu'ils sont considérés comme présentant de graves risques pour la société et l'humanité. "L'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, et elle doit être planifiée et gérée avec soin et ressources. Malheureusement, ce niveau de planification et de gestion ne se produit pas, et même ces derniers mois, les laboratoires d'IA sont entrés une course effrénée pour développer et déployer des esprits numériques de plus en plus puissants que personne, pas même ses créateurs, ne peut comprendre. prédire ou contrôler de manière fiable .

Une pause de 6 mois est nécessaire

Gardant à l'esprit que la concurrence pour développer des systèmes alimentés par l'Intelligence Artificielle est en effet le nouveau boom auquel participent de nombreux nouveaux acteurs, un moratoire de 6 mois Est demandé.

Les raisons à cela découlent d'une série de questions sur la façon dont cette technologie pourrait évoluer, certaines d'entre elles se rapprochant de Skynet dans Terminator : " Doit-on laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Doit-on automatiser tous les travaux ? Devrions-nous développer des esprits non humains qui pourraient éventuellement nous dépasser en nombre, nous surpasser en intelligence, nous rendre obsolètes et nous remplacer ? Doit-on risquer perdre le contrôle de notre civilisation ?

ChatGPT

C'est à la lumière de ces craintes que tous les laboratoires d'IA sont priés de suspendre immédiatement pendant au moins 6 mois la formation sur les systèmes d'IA plus puissant que GPT-4. En fait, il est si urgent que si une telle pause ne se produit pas en privé dans tous les cas, ils pensent que les gouvernements devraient intervenir et instituer un moratoire.

La recherche et le développement de l'IA doivent être recentrés pour rendre les puissants systèmes de nouvelle génération d'aujourd'hui plus précis, sécurisés, interprétables, transparents, robustes, alignés, fiables et loyaux.