Appuyez sur “Entrée” pour passer au contenu

Monde. Des chercheurs préviennent que nous manquons de temps pour prévenir les risques catastrophiques liés à l’IA

ACTUALITÉ > Monde

Fin février, des chercheurs en intelligence artificielle (IA) de Gladstone AI, une entreprise leader dans le domaine de la sécurité de l’IA, ont publié un rapport avertissant que les gouvernements manquent de temps pour concevoir et mettre en œuvre des mesures de protection complètes concernant le développement et le déploiement de systèmes d’IA avancés.

Dans ce rapport intitulé : Defence in Depth : an Action Plan to Increase the Safety and Security of Advanced AI (Défense en profondeur : un plan d’action pour accroître la sûreté et la sécurité de l’IA avancée, les chercheurs écrivent que des systèmes d’IA surhumains pourraient potentiellement échapper au contrôle de leurs créateurs et « constituer une menace d’extinction pour l’humanité ».

Le rapport a été commandé par le département d’État américain, qui précise toutefois que les conclusions du rapport ne reflètent pas les opinions du gouvernement américain.

Les chercheurs admettent que tous les « laboratoires d’IA d’avant-garde », y compris OpenAI, Google Deepmind et Anthropic, ont ouvertement déclaré leur intention ou leur attente de « parvenir à une intelligence générale artificielle (AGI) de niveau humain et surhumain …. d’ici la fin de cette décennie ou plus tôt ».

On pensait autrefois que cette réalisation n’interviendrait pas avant des décennies, voire un siècle.

« Par conséquent, les décideurs politiques ont de moins en moins l’occasion d’introduire des mesures de protection techniquement éclairées qui peuvent équilibrer ces considérations et garantir que l’IA avancée est développée et adoptée de manière responsable », écrivent les chercheurs. « Le rythme de développement de l’IA est aujourd’hui si rapide qu’un processus d’élaboration des politiques ordinaire pourrait être dépassé par les événements avant que les politiques qui en découlent ne prennent effet. »

Deux grandes catégories de risques liés à l’IA

Gladstone AI, qui milite pour un développement responsable des systèmes d’IA, affirme que les risques se répartissent en deux grandes catégories : le risque que les développeurs d’IA perdent le contrôle d’une IA avancée et l’utilisation potentielle de systèmes d’IA avancés comme armes.

Les auteurs, Edouard Harris, Jeremie Harris et Mark Beall, définissent l’IAG comme « un système d’IA capable de surpasser les humains dans tous les domaines économiques et stratégiques pertinents, tels que la production de plans pratiques à long terme susceptibles de fonctionner dans des conditions réelles ».

« Certains éléments suggèrent qu’à mesure que l’IA avancée se rapproche des niveaux de capacité générale humaine et surhumaine de l’AGI, elle peut devenir incontrôlable », écrivent les chercheurs. « En l’absence de contre-mesures, un système d’IA très performant peut adopter des comportements de recherche de pouvoir ».

Les auteurs préviennent que ces « comportements de recherche de pouvoir », dans le pire des cas, « pourraient constituer une menace d’extinction pour l’espèce humaine ».

Dans une interview accordée à la Canadian Broadcasting Corporation (CBC), Jeremie Harris, PDG de Gladstone AI, a averti : « il existe un risque que ces systèmes commencent à devenir dangereusement créatifs. Ils sont capables d’inventer des stratégies dangereusement créatives qui leur permettent d’atteindre leurs objectifs programmés tout en ayant des effets secondaires très néfastes. C’est donc en quelque sorte le risque que nous envisageons avec la perte de contrôle ».

La deuxième catégorie de risques « catastrophiques », citée dans le rapport, concerne l’utilisation de systèmes d’IA avancés en tant qu’armes.

Jeremie Harris a expliqué à la CBC : « Le risque cybernétique en est un exemple. Nous voyons déjà, par exemple, des agents autonomes. Vous pouvez vous adresser à l’un de ces systèmes et lui demander : " Je veux que vous créiez une application pour moi ". C’est une chose étonnante. Il s’agit essentiellement d’automatiser l’ingénierie logicielle. Toute cette industrie. C’est une très bonne chose ».

« Mais imaginez le même système… vous lui demandez de mener une attaque massive par déni de service distribué ou une autre cyberattaque. La barrière à l’entrée de certaines de ces applications d’optimisation très puissantes diminue, et l’empreinte destructrice des acteurs malveillants qui utilisent ces systèmes augmente rapidement au fur et à mesure qu’ils deviennent plus puissants ».

Jeremie Harris a mis en garde contre le fait que des acteurs malveillants pourraient utiliser des systèmes d’IA avancés pour brandir des armes de destruction massive, y compris des armes biologiques et chimiques.

Lignes d’action

Les chercheurs de Gladstone AI affirment que les gouvernements, leurs alliés et leurs partenaires peuvent travailler avec l’industrie de l’IA pour mettre en œuvre cinq lignes d’effort qui se soutiennent mutuellement afin de faire face au risque posé par les systèmes d’IA avancés.

« Ces lignes d’action établiront (LOE1), formaliseront (LOE4) et internationaliseront (LOE5) les garanties relatives au développement de l’IA avancée, tout en améliorant la préparation (LOE2) et en renforçant les capacités techniques (LOE3) », expliquent les chercheurs.

Les chercheurs présentent une stratégie globale de gestion des risques qui comprend la création d’un observatoire de l’IA (AIO) chargé de suivre l’évolution de l’IA avancée et de « veiller à ce que le point de vue du gouvernement américain sur ce domaine soit actualisé et fiable ».

Les efforts portent également sur la mise en place d’un ensemble provisoire de garanties pour le développement et l’adoption responsables de l’IA (RADA) pour les systèmes avancés et leurs développeurs, et sur la création d’un groupe de travail inter institutions sur la sécurité de l’IA (ASTF) « pour coordonner la mise en œuvre et la surveillance des garanties RADA ».

En outre, ils recommandent de mettre en place un ensemble de contrôles sur la chaîne d’approvisionnement de l’IA, « calibrés pour préserver la flexibilité du gouvernement américain face à des risques imprévisibles ».

« Plusieurs de ces LOE appellent également à une action audacieuse allant au-delà de ce qui a été exigé dans les périodes précédentes d’évolution technologique rapide », expliquent les auteurs, ajoutant : « Nous ne faisons pas ces recommandations à la légère. Elles reflètent plutôt le défi sans précédent posé par les capacités d’IA qui progressent rapidement et qui créent un potentiel de risques catastrophiques fondamentalement différents de tous ceux auxquels les États-Unis ont été confrontés auparavant. »

Les chercheurs concluent : « Pour paraphraser un chercheur en sécurité dans un laboratoire d’avant-garde, le risque lié à cette technologie sera le plus aigu au moment même où elle semble sur le point d’apporter ses plus grands avantages. »

Rédacteur Fetty Adler
Collaborateur Jo Ann

Source : Researchers Warn We Are Running Out of Time to Prevent ’Catastrophic’ Consequences of AI

Soutenez notre média par un don ! Dès 1€ via Paypal ou carte bancaire.