Avec l’augmentation des outils d’IA tels que ChatGPT, GPT-4 et Bard, la conversation sur l’utilisation éthique a considérablement augmenté. Cela inclut de souligner les risques potentiels que ces services pourraient poser. Les appels à des lois et politiques entourant les nouvelles capacités de l’IA se multiplient donc.
Google et l’éthique autour de l’IA
Dans un blog, Google suggère que dans cette conversation, le couteau coupe les deux méthodes. Les risques et les risques des services flambant neufs doivent être contrés. D’autre part, il convient également de garder à l’esprit que ces services apportent de nombreux avantages. Pour anticiper les catastrophes ou développer des médicaments extrêmement fiables.
Google mentionne également que l’IA et les outils qui en découlent sont encore des innovations émergentes. Cela suggère que la cartographie des menaces et des chances s’étend « au-delà des directives des émissions mécaniques pour former des modèles et déterminer les résultats ».
Google comprend que le développement et l’utilisation éthiques appropriés de l’IA nécessitent une politique. Ce faisant, le géant de la technologie affirme qu’il traite actuellement avec un certain nombre d’organisations.
Concepts pour l’atténuation des risques
Le géant de la technologie présente maintenant des concepts cela devrait s’appliquer aux réglementations qui peuvent réduire les dangers entourant l’IA. Ils doivent également s’assurer d’une responsabilité appropriée autour de l’innovation.
Premièrement, les nouvelles règles autour de l’IA doivent être construites sur les lois et réglementations existantes. Cela révèle qu’il existe déjà de nombreuses réglementations à cet endroit, y compris pour la confidentialité et la sécurité personnelles ou d’autres préoccupations liées à l’utilisation des applications d’IA.
Deuxièmement, il doit y avoir un cadre proportionné basé sur les risques qui se concentre spécifiquement sur les candidatures. Cela montre que l’IA est une innovation qui sert à plusieurs emplois. Cela, selon Google, appelle à plus de personnalisation et d’obligations distribuées pour les concepteurs, les déployeurs et les utilisateurs finaux.
Troisièmement, les pratiques interopérables pour les normes et la gouvernance de l’IA doivent être encouragées. Cela doit se produire dans un cadre international.
Attentes, interopérabilité et transparence
En tant que quatrième principe, Google déclare que les mêmes attentes doivent être utilisées à la fois pour les non-basés sur l’IA et l’IA systèmes basés sur les. Cela permettrait même aux systèmes d’IA les plus imparfaits de s’améliorer sur les procédures existantes.
En tant que 5ème et dernier concept, Google mentionne que les concepteurs d’IA doivent faire preuve d’ouverture dans leur travail et les capacités de leurs options. Cela renforce la confiance et permet aux utilisateurs finaux de tirer le meilleur parti de ces avancées.
Comme exemples de cadres d’IA qui adoptent déjà bon nombre de ces principes, Google cite le U.S. National Institute of Standards and Innovation AI Risk Management Structure et cadre de l’Observatoire des concepts et des politiques d’IA de la société de coopération et de plaidoyer économiques des Nations Unies, l’OCDE.
Toute l’actualité en temps réel, est sur L’Entrepreneur