vendredi, 19 avril 2024

Moi, Chatbot : La perception de la conscience dans l’IA conversationnelle

Dans le domaine de l’intelligence artificielle (IA), l’avancement de l’intelligence de base synthétique (AGI) est considéré comme le « Saint Graal » de l’apprentissage automatique. AGI montre la capacité d’un ordinateur à résoudre des tâches et à développer une autonomie indépendante au même titre qu’un représentant humain. Selon une interprétation « forte » de l’AGI, la machine afficherait les caractéristiques de la conscience manifestée chez un être sensible. En tant que tel, une forte AGI fournit la base du mélange enivrant de visions utopiques ou dystopiques de demain produites par Hollywood. Pensez à Ex Machina, Blade Runner et à la saga Star Wars pour des exemples d’appareils autonomes avec auto-perception.

Le test de Turing

Le test fondamental pour l’AGI critique a été défini par Alan Turing dans son article fondateur, publié en 1950, intitulé « I.– Computing Machinery and Intelligence ». Turing a postulé un test, appelé « The Imitation Game », dans lequel un interrogateur humain est chargé d’évaluer les réponses à une série de questions qui sont proposées à la fois par un humain et un participant fabricant pour déterminer quel répondeur est l’appareil et quel est le Humain. Le test est passé par la machine lorsque l’interrogateur humain est incapable d’identifier l’identité du répondant, sans savoir au préalable quel participant est l’humain.

Il est juste de dire que la possibilité de développer un véritable AGI– un fabricant indépendant et croyant– est celle qui divise ceux qui sont impliqués dans Étude de recherche sur l’IA.

La fascination pour l’idée de fabricants qui reproduisent la psyché humaine se traduit inévitablement par un cri médiatique lorsque de nouvelles avancées sont revendiquées ou lorsque des idées controversées sont publiées. La suspension signalée d’un ingénieur d’applications logicielles de Google pour avoir soi-disant affirmé que le chatbot LaMDA de l’entreprise affichait des habitudes sensibles a, sans aucun doute, fait la une des journaux dans le monde entier. Comprendre comment les chatbots sont créés, cependant, aide à clarifier la différence entre les réactions artificielles de LaMDA et un appareil avec une âme.

Il y a aussi la leçon historique du chatbot Tay de Microsoft, qui en 2016 a été endommagé par les données de formation des utilisateurs de Twitter qui ont changé la sortie conversationnelle souhaitée, analogue à un Dame de 19 ans, dans celle d’un fanatique raciste.

Comment fonctionnent les chatbots

Les chatbots sont un exemple de l’application du traitement du langage naturel (TLN) comme type de intelligence. Les chatbots sont familiers à quiconque s’engage avec un représentant virtuel lorsqu’il interagit avec une entreprise via son site Web. L’algorithme du chatbot analyse le côté humain de la « discussion » et sélectionne une réaction appropriée en fonction de la combinaison de mots identifiés. Le succès du chatbot dans son échange conversationnel avec le participant humain, et le niveau d’imitation humaine accompli, dépendent des informations de formation utilisées pour établir l’algorithme et de l’apprentissage de soutien acquis au cours de plusieurs discussions.

Ainsi comment LaMDA peut-il fournir des actions qui pourraient être perçues par un utilisateur humain comme une pensée consciente ou une remise en question de soi ? Paradoxalement, cela est dû au corpus de données de formation utilisé pour former LaMDA et à l’associativité entre les préoccupations humaines possibles et les réponses possibles de la machine. Tout cela se résume à des possibilités. La question est : comment ces possibilités progressent-elles de telle sorte qu’un interrogateur humain rationnel puisse être perplexe quant à la fonctionnalité du fabricant ?

Le problème des relations publiques de l’IA conversationnelle

Cela nous amène à la nécessité de « explicabilité » améliorée dans l’IA. Les réseaux de neurones synthétiques complexes, à la base d’une gamme de systèmes d’IA utiles, sont capables de calculer des fonctions qui dépassent les capacités d’un humain. Dans la plupart des cas, le réseau de neurones intègre des fonctions de découverte permettant de s’adapter à des tâches extérieures à l’application initiale pour laquelle le réseau a été établi. Cependant, les raisons pour lesquelles un réseau de neurones fournit une sortie spécifique en réponse à une entrée donnée sont souvent incertaines, voire indiscernables, ce qui conduit à critiquer la dépendance humaine vis-à-vis de machines dont le raisonnement intrinsèque n’est pas correctement compris.

La taille et la portée des données de formation présentent également un biais pour les systèmes d’IA complexes, produisant des sorties inattendues, erronées ou déroutantes par rapport aux informations d’entrée du monde réel. Cela s’est en fait produit, décrit comme le problème de la « boîte noire » où un utilisateur humain, ou le concepteur de l’IA, ne peut pas déterminer pourquoi le système d’IA agit comme il le fait.

Le cas de la conscience vue de LaMDA ne semble pas différent du cas du fanatisme savant de Tay. Sans un examen et une compréhension suffisants de la façon dont les systèmes d’IA sont formés, et sans une compréhension suffisante de la raison pour laquelle les systèmes d’IA produisent leurs sorties à partir des informations d’entrée proposées, il est possible, même pour un utilisateur professionnel, d’être incertain quant à la raison pour laquelle une machine réagit comme elle le fait.

À moins que la nécessité d’une explication du comportement de l’IA ne soit ancrée dans le style, le développement, le dépistage et la publication des systèmes dont nous dépendrons demain, nous continuerons d’être trompés par nos innovations, comme l’interrogateur aveugle dans le jeu de tromperie de Turing.

.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici