vendredi, 19 avril 2024

L’éthique de l’innovation en IA générative et l’avenir de l’humanité

L’IA a le potentiel de modifier le matériel social, culturel et économique du monde. Tout comme la télévision, le téléphone portable et le Web ont incité à une amélioration massive, les développements de l’IA générative comme ChatGPT créeront de nouvelles opportunités que l’humanité n’a pas encore envisagées.

Avec une grande puissance vient un grand danger. Ce n’est un secret pour personne que l’IA générative a soulevé de toutes nouvelles questions sur l’éthique et la confidentialité, et l’un des meilleurs risques est que la société utilise cette innovation de manière irresponsable. Pour éviter ce résultat, il est essentiel que le développement ne l’emporte pas sur la responsabilité. De nouvelles directives réglementaires devraient être établies au même rythme que nous voyons les principaux joueurs de la technologie introduire de nouvelles applications d’IA.

Pour bien comprendre les dilemmes éthiques autour de l’IA générative – et de leur impact potentiel sur l’avenir de la population internationale – nous devrions prendre des mesures pour comprendre ces grands modèles de langage, comment ils peuvent produire des modifications positives et où ils peuvent échouer.

Les défis de l’IA générative

Les êtres humains répondent à des préoccupations basées sur notre constitution héréditaire (nature), l’éducation, l’auto-apprentissage et l’observation (culture). Un appareil comme ChatGPT, d’autre part, a les informations du monde à portée de main. Tout comme les préjugés humains affectent nos réponses, la sortie de l’IA est biaisée par les informations utilisées pour la former. Étant donné que les informations sont généralement étendues et se composent de nombreux points de vue, la réponse fournie par l’IA générative en dépend.

, l’IA soutient avec succès la créativité et élargit les perspectives des stagiaires en tant qu’outil pédagogique supplémentaire. Si les stagiaires ont vérifié le produit et peuvent mesurer les concepts simulés de l’IA par rapport aux leurs.

Applications à risque moyen

Certaines applications présentent une menace moyenne et justifient des critiques supplémentaires selon les directives, mais les récompenses peuvent l’emporter sur les menaces lorsqu’elles sont utilisées correctement. Par exemple, l’IA peut faire des suggestions sur les traitements et les procédures médicales en fonction des antécédents d’un patient et des schémas qu’elle identifie chez des clients similaires. Un client allant de l’avant avec cette suggestion sans parler avec un expert médical humain pourrait avoir des effets désastreux. En fin de compte, le choix – et la manière dont leurs informations médicales sont utilisées – appartient au client, mais l’IA générative ne doit pas être utilisée pour produire un plan de soins sans freins et contrepoids corrects.

Applications à risque

Les applications à haut risque sont identifiées par une absence de responsabilité humaine et de décisions autonomes basées sur l’IA. Par exemple, un « juge IA » commandant une salle d’audience est impensable selon nos lois. Les juges et les représentants légaux peuvent utiliser l’IA pour faire leur étude de recherche et recommander un plan d’action pour la défense ou l’accusation, mais lorsque la technologie se transforme en exécution de la fonction de juge, elle présente un danger divers. Les juges sont les dépositaires de la ligne directrice de la loi, liés par la loi et leur conscience – ce que AI n’a pas. Il pourrait y avoir des méthodes à l’avenir pour l’IA pour traiter les gens de manière relative et sans parti pris, mais dans notre état actuel, seuls les êtres humains peuvent répondre de leurs actions.

Étapes immédiates vers la responsabilisation

Nous sommes en fait arrivés à une étape essentielle du processus de réglementation de l’IA générative, où des applications comme celles-ci doivent être prises en compte dans la pratique. Il n’y a pas de réponse facile alors que nous continuons à étudier le comportement de l’IA et à élaborer des lignes directrices, mais il y a 4 étapes que nous pouvons prendre maintenant pour réduire les risques immédiats :

  1. Auto-gouvernance : Chaque entreprise devrait adopter un cadre pour l’utilisation éthique et responsable de l’IA au sein de son entreprise. Avant que la réglementation ne soit préparée et ne devienne légale, l’auto-gouvernance peut révéler ce qui fonctionne et ce qui ne fonctionne pas.
  2. Évaluer : une structure de sélection étendue est essentielle – une structure qui suit les directives essentielles de la cohérence des données, comme la détection des biais dans les informations, les règles pour suffisamment de données pour toutes les données démographiques et tous les groupes, et la véracité des informations. La vérification de ces biais et incohérences peut garantir que les clauses de non-responsabilité et les avertissements sont utilisés jusqu’au dernier résultat, tout comme un médicament sur ordonnance où tous les effets négatifs possibles sont signalés. La vérification doit être continue et ne doit pas se limiter au lancement d’une fonction quand.
  3. Action responsable : le soutien humain est très important, peu importe à quel point l’IA générative est « intelligente ». En veillant à ce que les actions pilotées par l’IA passent par un filtre humain, nous pouvons garantir l’utilisation responsable de l’IA et vérifier que les pratiques sont contrôlées par l’homme et régies correctement dès le début.
  4. Évaluation continue des risques : déterminer si le cas d’utilisation relève de la catégorie à risque faible, moyen ou élevé, ce qui peut être complexe, aidera à déterminer les normes appropriées qui doivent être appliquées pour garantir le bon niveau de gouvernance. Une approche « taille unique » n’entraînera pas une gouvernance fiable.

ChatGTP est simplement l’idée de l’iceberg pour l’IA générative. L’innovation progresse à une vitesse vertigineuse, et assumer la responsabilité maintenant permettra de comprendre comment les développements de l’IA ont un impact sur l’économie mondiale, parmi de nombreux autres résultats. Nous nous trouvons à un moment intrigant de l’histoire de l’humanité où notre « humanité » est remise en question par la technologie qui tente de nous dupliquer.

Un nouveau monde fort nous attend, et nous devons ensemble être prêts à y faire face.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici