mercredi, 27 septembre 2023

La réglementation à venir sur l’IA pourrait ne pas nous protéger d’une IA dangereuse

De nombreux systèmes d’IA sont aujourd’hui des réseaux de neurones. Les réseaux de neurones sont des algorithmes qui imitent un cerveau biologique pour traiter de grandes quantités de données. Ils sont connus pour être rapides, mais ils sont impénétrables. Les réseaux de neurones nécessitent d’énormes quantités de données pour apprendre à faire des choix ; néanmoins, les facteurs de leurs décisions sont cachés dans de nombreuses couches de neurones synthétiques, tous réglés séparément sur divers critères.

En termes simples, les réseaux de neurones sont des « boîtes noires ». Et les concepteurs d’un réseau de neurones non seulement ne contrôlent pas ce que fait l’IA, mais ils ne comprennent même pas qu’elle fait ce qu’elle fait.

C’est une horrible vérité. La situation s’aggrave.

Malgré le risque inhérent à l’innovation, les réseaux de neurones commencent à gérer l’infrastructure clé des services vitaux et des fonctions gouvernementales. À mesure que les systèmes d’IA se multiplient, la liste des exemples de réseaux de neurones dangereux s’allonge chaque jour. Par exemple :

  • Déjà, au moins une personne est effectivement décédée dans une voiture pilotée par l’IA.
  • L’IA copilote de Microsoft s’est apparemment souvenue du code de transposition de matrice clairsemée du Texas A&M Teacher Tim Davis.
  • L’algorithme d’Apple Card a attribué à Steve Wozniak une limite de crédit 20 fois supérieure à celle de son épouse, bien que les deux partagent des ressources financières.
  • La police métropolitaine de Londres a utilisé un réseau de neurones pour détecter la pornographie. Le réseau de neurones n’arrêtait pas de reconnaître les dunes de sable comme des seins nus.
  • Le chatbot du réseau de neurones de Microsoft, Tay, était censé imiter les habitudes d’une adolescente curieuse sur Twitter. Tay est devenu un négationniste raciste et misogyne en moins de 24 heures.
  •  Photos a utilisé des réseaux de neurones pour déterminer les personnes, les objets, les animaux, la nourriture et les horizons. Ensuite, il a inexplicablement reconnu des photos de Noirs comme des gorilles.

Ces résultats vont de mortels à drôles à grossièrement offensants. Et tant que les réseaux de neurones sont utilisés, nous risquons d’être endommagés de plusieurs manières. Les entreprises et les consommateurs craignent à juste titre que tant que l’IA reste, elle reste.

Une réaction réglementaire est imminente

En réponse à ces préoccupations, l’UE a proposé une loi sur l’IA : devrait devenir loi d’ici janvier – et les ont en fait rédigé un plan de dépenses des droits de l’IA. Les deux abordent de front la question de l’opacité.

La loi européenne sur l’IA mentionne que les systèmes d’IA « à haut risque » doivent être construits avec ouverture, permettant à une organisation d’identifier et d’analyser des données potentiellement biaisées et de les éliminer de toutes les analyses futures. Il se débarrasse entièrement de la boîte noire. La loi sur l’IA de l’UE précise que les systèmes à haut risque incluent les installations importantes, le personnel, les services essentiels, l’application de la loi, le contrôle des frontières, la jurisprudence et la surveillance. En effet, pratiquement toutes les applications d’IA importantes développées pour le gouvernement fédéral et les entreprises seront certifiées comme système d’IA à haut risque et seront donc soumises à la loi européenne sur l’IA.

De même, la déclaration américaine des droits de l’IA affirme que les utilisateurs doivent être capables de comprendre les systèmes automatisés qui affectent leur vie. Il a le même objectif que la loi européenne sur l’IA : protéger le grand public de la menace réelle qu’une IA opaque devienne une IA dangereuse. Le plan est actuellement un livre blanc non contraignant et pour cette raison édenté. Sa nature provisoire pourrait être une vertu, car elle donnera aux scientifiques et aux partisans de l’IA le temps de travailler avec les législateurs pour élaborer la loi de manière appropriée.

Dans tous les cas, cela promet que l’UE et les exigeront des organisations adopter des systèmes d’IA qui fournissent des résultats interprétables à leurs utilisateurs. En bref, l’IA du futur devra peut-être être transparente, et non opaque.

Va-t-elle assez loin ?

Établir de nouveaux programmes de réglementation est constamment difficile. L’histoire ne manque pas d’exemples de législation inopportune qui écrase accidentellement de nouveaux marchés prometteurs. Cependant, il fournit également des contre-exemples où une législation bien conçue a réellement profité à la fois aux entreprises privées et au bien-être public.

Par exemple, lorsque la révolution des dotcoms a commencé, la loi sur le droit d’auteur était bien en retard par rapport à l’innovation suggérée. Gouverner. En conséquence, les premières années de l’ère Internet ont été gâchées par des poursuites judiciaires extrêmes visant les entreprises et les consommateurs. En fin de compte, la loi complète Digital Centuries Copyright Act (DMCA) a été adoptée. Une fois que les entreprises et les consommateurs se sont adaptés aux nouvelles lois, les organisations Internet ont commencé à prospérer et des innovations comme les médias sociaux, qui auraient été impossibles sous les anciennes lois, ont pu prospérer.

Les leaders tournés vers l’avenir du marché de l’IA ont compris depuis longtemps qu’un cadre statutaire similaire sera nécessaire pour que la technologie de l’IA atteigne sa pleine capacité. Un système de réglementation bien construit offrira aux clients la sécurité de la protection juridique de leurs données, de leur vie privée et de leur sécurité, tout en donnant aux entreprises des politiques claires et objectives en vertu desquelles elles peuvent investir en toute confiance des ressources dans des systèmes innovants.

Ni la loi sur l’IA ni les coûts des droits de l’IA ne remplissent ces objectifs. Aucun des deux cadres n’exige suffisamment de transparence de la part des systèmes d’IA. Aucun des deux cadres ne fournit une défense adéquate pour le public ou une réglementation suffisante pour l’entreprise.

Une série d’analyses proposées à l’UE ont en fait expliqué les défauts de la loi sur l’IA. (Des critiques similaires pourraient être adressées à AI Expense of Rights, à condition que le cadre américain ne soit même pas censé être une politique contraignante.) Ces défauts incluent :

  • Ne fournir aucun critère permettant de spécifier une menace indésirable pour les systèmes d’IA et aucune approche pour ajouter de toutes nouvelles applications à haut risque à la loi s’il s’avère que ces applications présentent un danger important de préjudice. Cela est particulièrement gênant car les systèmes d’IA finissent par être plus complets dans leur énergie.
  • Exigent uniquement que les entreprises prennent en compte les dommages causés aux individus, laissant de côté les facteurs à prendre en compte des dommages indirects et globaux à la société. Un système d’IA qui a un très petit effet sur, par exemple, les habitudes de vote de chaque personne pourrait avoir un effet social énorme dans l’ensemble.
  • Ne permettant pratiquement aucun contrôle public sur l’évaluation de la conformité de l’IA aux exigences de la loi. En vertu de la loi sur l’IA, les entreprises auto-évaluent la conformité de leurs propres systèmes d’IA sans l’intervention d’aucune autorité publique. Cela équivaut à demander aux sociétés pharmaceutiques de décider par elles-mêmes si les médicaments sont sûrs – une pratique que les et l’UE ont jugée nuisible pour le public.
  • Pas bien défini la célébration responsable pour l’évaluation de l’IA à usage général. Si une IA à usage général peut être utilisée pour des fonctions à haut risque, la loi s’applique-t-elle à elle ? Si tel est le cas, le créateur de l’IA à usage général est-il responsable de la conformité, ou l’entreprise qui utilise l’IA à haut risque ? Cette ambiguïté produit une échappatoire qui incite à déplacer le blâme. Les deux entreprises peuvent déclarer qu’il était du devoir de leur partenaire de s’auto-évaluer, pas du leur.

Pour que l’IA se multiplie en toute sécurité en Amérique et en Europe, ces failles doivent être corrigées.

Que faire à propos de l’IA non sécurisée jusque-là

Jusqu’à ce que des directives appropriées soient mises en place, les réseaux de neurones en boîte noire continueront d’utiliser les données individuelles et professionnelles de manière totalement non transparente à nous. Que peut faire quelqu’un pour se protéger d’une IA opaque ? Au minimum :

  • Posez des questions. Si vous êtes d’une manière ou d’une autre victime ou refusé par un algorithme, demandez à l’entreprise ou au fournisseur « Pourquoi ? » S’ils ne peuvent pas répondre à cette question, demandez-vous si vous devriez faire affaire avec eux. Vous ne pouvez pas faire confiance à un système d’IA pour faire ce qui est juste si vous ne comprenez même pas pourquoi il fait ce qu’il fait.
  • Soyez attentif aux informations que vous partagez. Toutes les applications de votre téléphone mobile doivent-elles connaître votre région ? Chaque plate-forme que vous utilisez doit-elle passer par votre adresse e-mail principale ? Un niveau de minimalisme dans le partage de données peut contribuer grandement à la sécurisation de votre vie privée.
  • Dans la mesure du possible, ne travaillez qu’avec des entreprises qui suivent les meilleures pratiques en matière de sécurité des données et qui utilisent des systèmes d’IA transparents.
  • Essentiel, soutenez la réglementation qui favorisera l’interprétabilité et l’ouverture. Tout le monde devrait comprendre pourquoi une IA affecte leur vie comme elle le fait.

Les menaces de l’IA sont réelles, mais les avantages le sont tout autant. En faisant face à la menace d’une IA non transparente entraînant des résultats dangereux, la Déclaration des droits de l’IA et la Loi sur l’IA tracent la voie idéale pour l’avenir. Le niveau de réglementation n’est pas encore assez robuste.

.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici