jeudi, 28 mars 2024

Le danger profond de l’IA conversationnelle

Lorsque les scientifiques examinent les risques que l’IA pose à la civilisation humaine, nous faisons généralement référence au « problème de contrôle ». Cela décrit la possibilité qu’une super-intelligence artificielle émerge beaucoup plus intelligente que les humains et que nous perdions rapidement le contrôle sur elle. La crainte est qu’une IA sensible dotée d’un intellect surhumain puisse poursuivre des objectifs et des intérêts qui entrent en conflit avec les nôtres, finissant par être un rival nuisible pour l’humanité.

Bien qu’il s’agisse d’un problème légitime que nous devons travailler dur pour protéger, est-ce vraiment le plus grand danger que l’IA représente pour la société ? Préférablement pas. Une enquête récente auprès de plus de 700 spécialistes de l’IA a révélé que la plupart pensent que l’intelligence des appareils au niveau humain (HLMI) est dans au moins trente ans.

D’un autre côté, je suis profondément préoccupé par divers types de problèmes de contrôle qui sont déjà à notre portée et qui pourraient constituer une menace importante à la société à moins que les décideurs n’agissent rapidement. Je décris la possibilité croissante que les innovations d’IA actuellement proposées puissent être utilisées pour cibler et manipuler des utilisateurs individuels avec une précision et une efficacité extrêmes. Pire encore, ce nouveau type de contenu pourrait être diffusé à grande échelle par des intérêts commerciaux, des vedettes d’État ou peut-être des despotes voyous pour influencer de larges populations.

Le « problème d’ajustement »

Pour contraster ce danger avec le problème de contrôle standard expliqué ci-dessus, je décris ce danger émergent de l’IA comme le « problème de manipulation ». C’est une menace que je traque depuis près de 20 ans, mais au cours des 18 derniers mois, elle est en fait passée d’une menace théorique à long terme à un danger urgent à court terme.

Cela est dû au fait que le mécanisme de déploiement le plus efficace et le plus efficace pour le contrôle humain basé sur l’IA est l’IA conversationnelle. Et, au cours de la dernière année, une incroyable technologie d’IA appelée Big Language Models (LLM) a en fait rapidement atteint un niveau de maturité. Cela a fait de manière inattendue des interactions conversationnelles naturelles entre les utilisateurs ciblés et l’application logicielle basée sur l’IA un moyen viable de persuasion, de coercition et d’ajustement.

Naturellement, les technologies d’intelligence artificielle sont actuellement utilisées pour piloter des projets à impact sur les plateformes de réseaux sociaux, mais c’est primitif par rapport à la direction que prend la technologie. En effet, les projets existants, bien que qualifiés de «ciblés», sont plus comparables à la pulvérisation de chevrotine sur des volées d’oiseaux. Cette stratégie dirige un barrage de propagande ou de fausses informations vers des groupes largement définis dans l’espoir que quelques éléments d’impact imprégneront la communauté, résonneront parmi ses membres et se répandront sur les réseaux sociaux.

Cette méthode est exceptionnellement dangereuse et a en fait causé de véritables dommages à la société, polarisant les quartiers, propageant des mensonges et diminuant le recours à de véritables organisations. Il apparaîtra lent et inefficace par rapport à la prochaine génération d’approches d’influence basées sur l’IA qui sont sur le point de se déchaîner sur la société.

Systèmes d’IA en temps réel

Je fais référence aux systèmes d’IA en temps réel développés pour engager des utilisateurs ciblés dans des interactions conversationnelles et poursuivre habilement des objectifs d’impact avec une précision personnalisée. Ces systèmes seront publiés en utilisant des termes euphémiques comme, ou juste.

Cependant, peu importe comment nous les appelons, ces systèmes ont des vecteurs terrifiants d’abus et d’abus. Je ne parle pas du risque apparent que des consommateurs sans méfiance puissent se fier aux résultats de chatbots qui ont été formés sur des données truffées d’erreurs et de biais. Non, je parle de quelque chose de beaucoup plus douteux – le contrôle intentionnel des personnes par la mise en œuvre ciblée de systèmes d’IA conversationnels axés sur l’agenda qui encouragent les utilisateurs à travers un dialogue interactif convaincant.

Plutôt que de tirer des balles dans de larges populations, ces toutes nouvelles méthodes d’IA fonctionneront davantage comme des « fusées à recherche de chaleur » qui marquent les utilisateurs comme des cibles privées et adaptent leurs stratégies de conversation en temps réel, en s’ajustant à chaque individu personnellement alors qu’ils s’efforcent de maximiser leur effet convaincant.

Au cœur de ces stratégies se trouve l’innovation relativement nouvelle des LLM, qui peuvent produire un dialogue humain interactif en temps réel tout en gardant un œil sur la circulation et le contexte de la conversation. Comme popularisé par le lancement de ChatGPT en 2022, ces systèmes d’IA sont formés sur des ensembles de données si massifs qu’ils sont non seulement capables de reproduire le langage humain, mais ils ont d’énormes réserves de connaissances précises, peuvent faire d’excellentes inférences rationnelles et peuvent donner l’impression de bon sens humain.

Combinées à la génération de voix en temps réel, ces technologies permettront des interactions orales naturelles entre les personnes et les créateurs extrêmement convaincantes, apparemment logiques et remarquablement fiables.

Développement des personnes numériques

Évidemment, nous n’interagirons pas avec des voix désincarnées, mais avec des personnalités générées par l’IA qui sont visuellement sensibles. Cela m’amène à la deuxième innovation qui progresse rapidement et qui s’ajoutera au problème de la manipulation de l’IA : les humains numériques. Il s’agit de la branche des applications logicielles informatiques visant à déployer des personnes simulées photoréalistes qui regardent, sonnent, bougent et font des expressions si authentiques qu’elles peuvent passer pour de vrais humains.

Ces simulations peuvent être déployées en tant que porte-parole interactifs qui ciblent les clients via l’informatique 2D standard via la vidéoconférence et d’autres conceptions plates. Ou, ils peuvent être déployés dans des mondes immersifs en trois dimensions à l’aide de lunettes de réalité combinée (MR).

Alors que la génération en temps réel de personnes photoréalistes semblait hors de portée il y a quelques années à peine, les améliorations rapides de la puissance de calcul, des moteurs graphiques et des techniques de modélisation de l’IA ont fait des êtres humains numériques une innovation pratique à court terme. En vérité, les principaux fournisseurs de logiciels fournissent déjà des outils pour en faire une capacité répandue.

Unreal a récemment lancé un outil facile à utiliser appelé Metahuman Developer. Ceci est particulièrement conçu pour permettre la production de personnes numériques convaincantes qui peuvent être animées en temps réel pour un engagement interactif avec les consommateurs. D’autres fournisseurs mettent en place des outils similaires.

Se faire passer pour de véritables humains

Une fois intégrés, les humains numériques et les LLM permettront un monde dans lequel nous nous connecterons régulièrement avec des porte-parole virtuels (VSP) qui ressemblent, sonnent et imitent des individus authentiques.

Une étude de recherche menée en 2022 par des scientifiques de l’Université de Lancaster et de l’U.C. Berkeley a montré que les utilisateurs ne sont plus en mesure d’identifier les visages humains authentiques et les visages générés par l’IA. Beaucoup plus mal à l’aise, ils ont déterminé que les utilisateurs percevaient les visages générés par l’IA comme « plus dignes de confiance » que les vraies personnes.

Cela suggère deux tendances extrêmement dangereuses dans un avenir proche. Premièrement, nous pouvons nous attendre à engager des systèmes pilotés par l’IA pour être camouflés en êtres humains authentiques, et nous n’aurons rapidement pas la capacité de discriminer. Deuxièmement, nous sommes susceptibles de nous appuyer davantage sur des systèmes déguisés basés sur l’IA que sur de vrais représentants humains.

Discussions individualisées avec l’IA

C’est très dangereux, car nous nous retrouverons rapidement dans des conversations personnalisées avec des porte-parole pilotés par l’IA qui sont (a) identiques aux vrais humains, (b) inspirer plus de confiance que de vrais individus, et (c) pourraient être déployés par des entreprises ou des acteurs étatiques pour poursuivre un programme de conversation particulier, que ce soit pour encourager les gens à acheter un article particulier ou à penser à une fausse information spécifique.

Et s’ils ne sont pas contrôlés de manière agressive, ces systèmes pilotés par l’IA évalueront également les émotions en temps réel à l’aide de flux de caméras pour traiter les expressions faciales, les mouvements oculaires et la dilatation des pupilles, qui peuvent tous être utilisés pour présumer des émotions émotionnelles. réponses tout au long de la conversation.

Dans le même temps, ces systèmes d’IA traiteront les inflexions du chant, en supposant des sensations altérées tout au long d’une discussion. Cela implique qu’un porte-parole virtuel déployé pour engager les gens dans une conversation axée sur l’influence aura la capacité d’adapter ses tactiques en fonction de la façon dont ils répondent à chaque mot qu’il prononce, en découvrant quelles stratégies d’affect fonctionnent et lesquelles ne fonctionnent pas. Le potentiel d’ajustement prédateur par l’IA conversationnelle est extrême.

IA conversationnelle : observatrice et envahissante

Au fil des ans, j’ai vu des gens repousser mes problèmes concernant l’IA conversationnelle, me disant que les vendeurs humains font exactement la même chose en vérifiant sur les émotions et les méthodes d’ajustement – cela ne devrait donc pas être considéré comme une toute nouvelle menace.

Ceci est inexact pour diverses raisons. Ces systèmes d’IA trouveront des réponses qu’aucun représentant commercial humain ne pourrait voir. Les systèmes d’IA peuvent identifier non seulement les expressions faciales, mais aussi les « micro-expressions » qui sont trop rapides ou trop subtiles pour être découvertes par un observateur humain, mais qui suggèrent des réponses psychologiques – consistant en des réactions que l’utilisateur n’est pas conscient de révéler ou même de ressentir.

Les systèmes d’IA peuvent vérifier les modifications subtiles de la peau appelées « modèles de flux sanguin » sur les visages qui indiquent des changements émotionnels qu’aucun humain ne pourrait trouver. Et enfin, les systèmes d’IA peuvent suivre les modifications subtiles de la taille des élèves et des mouvements oculaires et extraire des indices sur l’engagement, l’excitation et d’autres sentiments internes personnels. À moins d’être protégé par une politique, la connexion avec l’IA conversationnelle sera encore plus perspicace et invasive que l’engagement avec n’importe quel agent humain.

Conversations adaptatives et personnalisées

L’IA conversationnelle sera également beaucoup plus tactique dans l’élaboration d’un pitch verbal sur mesure. En effet, ces systèmes seront probablement déployés par de grandes plates-formes en ligne qui disposent de profils de données étendus sur les intérêts, les opinions, les antécédents d’un individu et tout autre détail compilé à temps.

Cela suggère que, lorsqu’ils sont engagés par un système d’IA conversationnelle qui ressemble, sonne et imite un représentant humain, les individus interagissent avec une plate-forme qui les comprend mieux que n’importe quel humain. De plus, il constituera une base de données sur la façon dont ils ont réagi lors d’interactions conversationnelles précédentes, en suivant quelles méthodes convaincantes ont fonctionné sur eux et quelles stratégies n’ont pas fonctionné.

En d’autres termes, les systèmes d’IA conversationnelle ne s’adapteront pas seulement aux réactions psychologiques instantanées, mais aux traits de comportement au fil des jours, des semaines et des années. Ils peuvent découvrir comment vous entraîner dans la conversation, vous guider pour accepter de nouvelles idées, appuyer sur vos boutons pour vous énerver et finalement vous pousser à acheter des articles dont vous n’avez pas besoin et des services dont vous ne voulez pas. Ils peuvent également vous encourager à croire que de fausses informations que vous comprendriez généralement sont ridicules. Ceci est extrêmement dangereux.

Ajustement humain, à grande échelle

En vérité, le danger interactif de l’IA conversationnelle pourrait être bien pire que tout ce que nous avons réellement géré dans le monde en matière de promotion, de propagande ou de persuasion à l’aide de méthodes conventionnelles ou sociales. médias. Pour cette raison, je pense que les régulateurs doivent se concentrer sur ce problème immédiatement, car la mise en œuvre de systèmes nuisibles pourrait se produire bientôt.

Il ne s’agit pratiquement pas de diffuser du matériel dangereux ; il s’agit de permettre un contrôle humain personnalisé à grande échelle. Nous avons besoin de protections juridiques qui protégeront notre liberté cognitive contre cette menace.

Après tout, les systèmes d’IA peuvent déjà battre les meilleurs joueurs d’échecs et de poker du monde. Quelle chance a un individu typique de résister à être manipulé par un projet d’impact conversationnel qui a accès à son histoire personnelle, traite ses émotions en temps réel et ajuste ses techniques avec une précision pilotée par l’IA ? Aucune chance du tout.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici