HIGH TECHJeuxJEUX VIDEOTECH & NETWEB

Anthropic, Google, Microsoft et OpenAI forment un groupe pour la sécurité de l’IA

[ad_1]

Anthropic, Google, Microsoft et OpenAI forment un groupe pour la sécurité de l’IA. Il est plus que temps de s’y mettre.

Ce n’est un secret pour personne que le développement de l’IA introduit un grand nombre de risques de sécurité. Si les gouvernements tentent de mettre en place des cadres légaux, pour l’heure, il incombe aux sociétés elles-mêmes de prendre des précautions. Le dernier exemple de cette supervision est à mettre au crédit de Anthropic, Google, Microsoft et OpenAI, avec la création du Frontier Model Forum, une entité centrée sur le développement sécuritaire de l’IA. Elle définit les modèles de frontières comme des “modèles de machine-learning à grande échelle” qui vont au-delà des capacités actuelles et qui ont une gamme étendue de capacités.

Anthropic, Google, Microsoft et OpenAI forment un groupe pour la sécurité de l’IA

Le Forum veut établir un comité consultatif, une charte et un fonds d’investissement. Il a déjà posé quatre piliers principaux et souhaite se concentrer sur l’amélioration de la recherche en sécurité de l’IA, la mise en place des bonnes pratiques, travailler au plus près avec les régulateurs, les chercheurs, les civils et les entreprises, et encourage les efforts visant à concevoir une IA qui “peut aider à surmonter les plus grands défis de notre société”.

Ses membres travailleront sur les trois premiers objectifs pendant les mois à venir. D’ailleurs, pour pouvoir rejoindre ce Frontier Model Forum, il faut produire des modèles de frontières et montrait une volonté claire de les rendre sûrs. “Il est vital que les sociétés de l’IA, et plus particulièrement celles qui travaillent sur les modèles les plus puissants, s’alignent et avancent ensemble sur des pratiques de sécurité acceptables pour garantir que les outils d’IA puissants puissent offrir les plus grands avantages”, déclarait Anna Makanju, vice-présidente monde de OpenAI, dans un communiqué. “C’est un travail urgent et ce forum est bien positionné pour agir rapidement et avancer sur la question de la sécurité de l’IA.”

Il est plus que temps de s’y mettre

La création du Forum fait suite à un accord de sécurité récent entre la Maison Blanche et les leaders de l’IA, y compris ceux responsables de cette nouvelle initiative. Parmi les mesures de sécurité déjà évoquées et décidées, l’inclusion de test sur les mauvaises utilisations par des experts externes et l’introduction d’un filigrane dans le contenu créé par IA.

[ad_2]
Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page

Adblock détecté

S'il vous plaît envisager de nous soutenir en désactivant votre bloqueur de publicité