HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

Des leaders et experts de la tech demandent une pause de 6 mois sans expérimentation sur l’IA

[ad_1]

Des leaders et experts de la tech demandent une pause de 6 mois sans expérimentation sur l’IA. Ils s’inquiètent des (trop) rapides développements en la matière et du peu de sécurité autour.

Une lettre ouverte signée par des leaders de la tech et autres éminents chercheurs de l’intelligence artificielle appelle les laboratoires et entreprises spécialisées dans l’IA à “mettre immédiatement en pause” leurs travaux. Les signataires, dont font partie Steve Wozniak et Elon Musk, voudraient une pause de six mois, minimum, sans produire de technologie reposant sur GPT-4 pour profiter des systèmes IA existants et permettre aux gens de s’ajuster et de s’assurer qu’ils puissent bénéficier à tout le monde. La lettre ajoute qu’il est nécessaire de réfléchir et de faire preuve de prévoyance pour assurer la sécurité des systèmes d’IA.

Des leaders et experts de la tech demandent une pause de 6 mois sans expérimentation sur l’IA

La référence à GPT-4, un modèle d’OpenAI qui peut répondre avec du texte à des messages écrits ou visuels, survient alors que les sociétés se livrent déjà une lutte effrénée pour concevoir des systèmes de discussion complexes qui utilisent cette technologie. Microsoft, par exemple, a récemment confirmé qu’il avait revu son moteur de recherche Bing pour profiter du modèle de GPT-4. Google, de son côté, a récemment lancé Bard, son propre système d’IA générative reposant sur LaMDA. Cette inquiétude existe depuis longtemps, mais la course à laquelle se livre aujourd’hui les sociétés de la tech semble susciter de plus grandes craintes encore.

“Malheureusement, ce niveau de planification et de gestion n’existe pas, les laboratoires d’IA travaillent d’arrache-pied pour développer et déployer des cerveaux virtuels que personne – pas même leurs créateurs – ne peuvent comprendre, prédire ou contrôler de manière sûre”, peut-on notamment lire.

Ils s’inquiètent des (trop) rapides développements en la matière et du peu de sécurité autour

Cette lettre a été publiée par le Future of Life Institute (FLI), une organisation engagée à réduire les risques et les mauvaises utilisations des nouvelles technologies. Elon Musk avait précédemment fait une donation de 10 millions de dollars au FLI pour étudier la sécurité de l’IA. Outre Steve Wozniak et ce dernier, on trouve de grands noms de l’IA, comme le président du Center for AI and Digital Policy, Marc Rotenberg, le physicien du MIT et président du FLI, Max Tegmark, et l’auteur Yuval Noah Harari. Ce dernier a aussi écrit un article dans le New York Times la semaine dernière autour des risques associés à l’IA, avec les fondateurs du Center for Humane Technology et d’autres signataires, Tristan Harris et Aza Raskin.

Cet appel semble la suite logique, d’une certaine manière, à un sondage de 2022 mené auprès de plus de 700 chercheurs dans le machine learning, qui montrait que près de la moitié des participants déclaraient qu’il y avait 10 % de risque que les conséquences soient “extrêmement mauvaises” avec l’IA, allant même jusqu’à l’extinction de la race humaine. Lorsque interrogé quant à la sécurité dans la recherche en intelligence artificielle, 68 % des chercheurs déclaraient qu’il faudrait en faire plus ou bien plus.

[ad_2]
Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité