jeudi, 28 mars 2024

« Le Conseil européen menace l’avenir de l’intelligence artificielle »

La Commission européenne a présenté un projet de loi visant à réglementer l’intelligence artificielle (IA) en 2021. Bruxelles veut empêcher l’IA de contribuer à la discrimination, aux violations de la vie privée, à la dictature et aux perturbations.

Les règles dépendent de l’application de l’IA. Les développeurs de systèmes d’IA pour l’éducation sont tenus à des normes différentes de celles des développeurs de chatbots généraux. La soi-disant loi sur l’IA est loin d’être définitive. Les détails sont actuellement discutés par les décideurs politiques.

L’un des sujets de discussion est la réglementation de l’IA à usage général. La plupart des décideurs conviennent que les systèmes d’IA pour l’éducation, l’application de la loi et d’autres domaines sensibles doivent être fortement supervisés. Cependant, les avis sur la réglementation des systèmes d’IA pour les tâches à usage général sont partagés.

Réglementation des développeurs d’IA open source

Le Conseil européen a proposé de confier aux développeurs d’IA à usage général (GPAI) la responsabilité de la gestion des risques, de la gouvernance des données, de la documentation transparente et de la cybersécurité. L’institut de recherche Brookings a récemment averti que la proposition pourrait avoir des conséquences désastreuses pour le développement de l’IA open source.

Le Conseil européen définit les systèmes GPAI comme des systèmes d’IA dotés de « fonctions généralement applicables » et de cas d’utilisation dans une « pluralité de contextes ». Brookings note que les projets d’IA open source correspondent à l’image. Selon l’institut de recherche, la proposition pourrait rendre les développeurs open source responsables des violations par des tiers.

Le danger

Supposons qu’un tiers intègre un projet open source dans une application d’IA. L’application s’avère être une violation de la loi sur l’IA. Le tiers s’expose à des sanctions. Brookings craint que le tiers ne rejette la responsabilité sur les développeurs du projet open source.

Stable Diffusion est un exemple concret. Le système d’IA open source génère des images basées sur des mots. Le système lui-même est inoffensif, mais plusieurs développeurs ont intégré la technologie dans des outils de deepfakes pornographiques. La proposition du Conseil européen pourrait faire en sorte que Stable Diffusion soit tenu pour responsable des deepfakes.

Selon Oren Etzioni, PDG de l’Allen Institute for AI, la proposition crée un climat dans lequel les développeurs ont peur de développer des projets d’IA open source. « Les développeurs open source ne devraient pas être soumis au même fardeau que ceux qui développent des logiciels commerciaux », a déclaré le PDG à TechCrunch.

« Prenons le cas d’un seul étudiant développant une capacité d’IA ; ils ne peuvent pas se permettre de se conformer aux réglementations de l’UE et peuvent être contraints de ne pas distribuer leurs logiciels, ce qui a un effet dissuasif sur les progrès académiques et sur la reproductibilité des résultats scientifiques. »

Deux côtés< /span>

Mike Cook, chercheur en intelligence artificielle chez Knives and Paintbrushes, voit les choses différemment. Selon Cook, l’établissement d’une norme universelle encourage les développeurs à travailler avec intégrité. « L’alarmisme à propos de » l’innovation étouffante « émane principalement de personnes qui veulent supprimer toute réglementation et avoir le champ libre, et ce n’est généralement pas un point de vue auquel j’accorde beaucoup d’importance », a déclaré Cook.

« Je pense qu’il est normal de légiférer au nom d’un monde meilleur, plutôt que de se demander si votre voisin va réglementer moins que vous et en tirer profit d’une manière ou d’une autre. »

A suivre

Bruxelles finalisera la loi sur l’IA dans les mois à venir. Le projet de loi devrait être présenté au vote cet automne. Rien ne garantit que la proposition du Conseil européen se retrouvera dans l’acte final.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici