samedi, 2 mars 2024

Snoop Dogg, l’IA sensible et le « paradoxe de l’arrivée »

Comme de nombreux technologues de longue date, je suis profondément inquiet des menaces de l’IA, à la fois en raison de son danger à court terme pour la société et de sa menace à long terme pour l’humanité. En 2016, j’ai mis une date sur mes plus grandes préoccupations, avertissant que nous pourrions atteindre la superintelligence artificielle d’ici 2030 et la superintelligence sensible peu après.

Mes paroles ont attiré l’attention à cette époque, mais souvent pour des facteurs incorrects – avec des critiques selon lesquelles j’étais en retard de quelques décennies. J’espère que les critiques sont fondées, mais les sept dernières années m’ont rendu encore plus préoccupé par le fait que ces tournants approchent rapidement et que nous restons largement non préparés.

Les risques les plus probables de la superintelligence ?

Bien sûr, on parle beaucoup plus aujourd’hui des « menaces existentielles » de l’IA que par le passé, mais la discussion saute souvent directement aux intrigues de films comme (1983), dans lequel une IA provoque pratiquement une guerre nucléaire en interprétant involontairement les objectifs humains, ou (1984 ), dans lequel un système d’armes autonome se transforme en une IA sensible qui se retourne contre nous avec une armée de robots aux yeux rouges. Les deux sont des films fantastiques, mais pensons-nous vraiment que ce sont les risques les plus probables d’une superintelligence ?

Bien sûr, un lancement nucléaire inattendu ou des armes autonomes devenues voyou sont des dangers réels, mais il s’avère que ce sont des dangers que les gouvernements fédéraux prennent déjà au sérieux. D’un autre côté, je suis convaincu qu’une superintelligence sensible aurait la capacité de maîtriser facilement l’humanité sans recourir aux armes nucléaires ou à la robotique tueuse. Il ne serait pas nécessaire de recourir à un quelconque type de violence conventionnelle. Au contraire, une superintelligence manipulera simplement l’humanité pour satisfaire ses propres intérêts.

Événement

IA libérée

Une soirée exclusive d’informations et de réseautage sur invitation uniquement, créée pour les cadres supérieurs d’entreprise supervisant les piles de données et les techniques.

Découvrir plus Je comprends

qui sonne

», dont Snoop Dogg, Kendall Jenner, Tom Brady. , Chris Paul et Paris Hilton. « Il ne s’agira pas simplement de répondre aux requêtes », a déclaré Mark Zuckerberg à propos de l’innovation. « Il s’agit de divertissement et de vous aider à faire des choses pour vous connecter avec les gens autour de vous.

 » De plus, il a indiqué que les chatbots sont des textos pour l’instant, mais que les IA à commande vocale seront probablement déployées prochainement. l’année prochaine. Meta a également recommandé que ces agents IA existeront probablement sous forme d’expériences VR complètes sur leur tout nouveau casque Quest3.

Si cela ne vous dérange pas, vous n’y réfléchissez peut-être pas. L’IA modère nos vies individuelles Soyons clairs : l’objectif de Meta de libérer des agents d’IA pour vous aider à faire des choses et à entrer en contact avec les gens aura de nombreuses applications positives. Néanmoins, je pense qu’il s’agit d’une direction incroyablement dangereuse dans laquelle de puissants systèmes d’IA modéreront considérablement nos vies individuelles. Et

il ne s’agit pas simplement d’une course aux méta dans cette direction : Google, Microsoft, Apple et Amazon mettent tous en place des assistants IA de plus en plus puissants qu’ils espèrent que le grand public utilisera largement dans nos routines quotidiennes. Pourquoi est-ce si nocif ? Comme je l’informe fréquemment aux décideurs politiques : pensez à un vendeur compétent. Ils comprennent que la meilleure façon d’influencer le point de vue de quelqu’un n’est pas de lui remettre une brochure. Il s’agit de les engager dans une discussion directe et interactive, généralement en les entraînant dans des plaisanteries amicales, en révélant subtilement un argumentaire de vente, en entendant les objections et les préoccupations de la cible et en travaillant activement pour surmonter ces barrières. Les systèmes d’IA sont désormais prêts à impliquer les gens en effectuant ainsi toutes les actions du processus. Et comme je le détaille dans ce récent article universitaire, nous, les êtres humains, serons complètement dépassés. Ces systèmes d’IA seront bien mieux préparés à vous cibler que n’importe quel vendeur. Ils peuvent avoir accès à des données sur vos intérêts, vos passe-temps, vos tendances politiques, vos caractéristiques, votre niveau d’éducation et de nombreuses autres informations personnelles. Et rapidement, ils auront la capacité de lire vos ressentis dans vos inflexions vocales, vos expressions faciales

et même votre posture. De votre côté, vous parlerez avec une IA qui peut ressembler à n’importe quoi, de Paris Hilton à Snoop Dogg, en passant par une adorable petite fée qui vous guide tout au long de votre journée. Et pourtant, cette IA mignonne ou charmante pourrait disposer de tous les détails du monde pour contrer vos problèmes, tout en étant également formée aux stratégies de vente, à la psychologie cognitive et aux techniques de persuasion. Et il pourrait tout aussi bien vous proposer une voiture ou un camion qu’il pourrait vous inciter à de fausses informations ou à de la propagande. Cette menace est appelée la menace et la plupart des régulateurs cessent encore de s’efforcer d’apprécier le danger subtil de l’impact conversationnel interactif. Normaliser l’IA de type humain Regardons maintenant un peu plus loin dans l’avenir et considérons l’ampleur du risque de contrôle à mesure que les systèmes d’IA atteignent la superintelligence et, finalement, la sensibilité. Regretterons-nous d’avoir permis aux plus grandes entreprises de la planète de stabiliser la mise en œuvre d’agents d’IA qui ont une apparence humaine, agissent et semblent humains, mais qui ne sont cependant pas humains dans le vrai sens du terme, et qui pourtant peuvent utiliser habilement des méthodes capables de manipuler

nos croyances, affectent nos points de vue et influencent nos actions ? Je le crois. Une superintelligence sensible, par définition, sera un système d’IA nettement plus intelligent que n’importe quel humain et doté d’une volonté unique. Cela suggère qu’il pourrait choisir de poursuivre des objectifs qui contreviennent directement aux exigences de l’humanité. Et encore une fois, une telle superintelligence n’aura pas besoin de prendre le contrôle de nos armes nucléaires ou de nos drones militaires. Il lui faudra simplement utiliser les techniques que les grandes technologies sont actuellement en train d’établir : la capacité de libérer des agents d’IA sur mesure qui semblent si amicaux et si non menaçants que nous baissons notre garde, leur permettant de chuchoter à nos oreilles et de nous guider à travers notre vies, lisant nos sentiments, anticipant nos actions et potentiellement manipulant notre comportement avec des capacités surhumaines. L’IA exploite l’IA Il s’agit d’une menace réelle, et pourtant nous n’agissons pas comme si elle

approchait rapidement. Nous ignorons la menace à cause de la personnification décrite ci-dessus. Ces agents IA sont déjà si compétents dans l’art de se faire passer pour des humains, même par simple chat textuel, que nous faisons actuellement plus confiance à leurs paroles que nous ne le devrions. Et ainsi, lorsque ces puissants systèmes d’IA nous apparaîtront finalement comme Snoop Dogg ou Paris Hilton ou une nouvelle personnalité imaginaire amicale et captivante, nous baisserons encore plus notre garde. Aussi fou que cela puisse paraître, si une superintelligence sensible émerge dans les années à venir avec des intérêts qui entrent en conflit avec les nôtres, elle pourrait facilement profiter des assistants IA personnalisés (sur lesquels nous compterons rapidement) pour pousser l’humanité dans toutes les directions. il désire. Encore une fois, je sais que cela ressemble à un conte de science-fiction (en réalité, j’ai écrit une telle histoire en 2008), mais ces technologies deviennent désormais authentiques et leurs capacités dépassent toutes les attentes. Alors, comment pouvons-nous amener les individus à évaluer l’ampleur de la menace de l’IA ? Au cours des dernières années, j’ai découvert qu’une méthode fiable pour contextualiser les dangers consiste à comparer le développement d’une superintelligence avec l’arrivée d’un vaisseau spatial extraterrestre. J’appelle cela le puisque la production d’une IA super intelligente ici sur Terre est sans doute plus dangereuse que des extraterrestres intelligents arrivant d’un autre monde. Et pourtant, avec l’IA qui progresse désormais à un rythme record, nous, les humains, n’imitons pas, nous avons simplement regardé dans un télescope et repéré une flotte de navires se précipitant vers nous. Craignant les mauvais extraterrestres Comparons les risques relatifs.

Si un vaisseau spatial extraterrestre était repéré se dirigeant vers la Terre et se déplaçant à une vitesse

qui l’éloignerait de cinq à dix ans, le monde serait fortement concentré sur l’entité qui s’approche – en s’attendant à ce que le meilleur, mais il prépare sans aucun doute nos défenses, probablement dans le cadre d’un effort mondial coordonné comme tout ce que le monde a jamais vu. Certains diront que les types de renseignements seront disponibles en paix, mais la majorité exigerait que nous nous préparions à une intrusion à grande échelle. D’un autre côté, nous avons déjà vérifié un télescope pointé vers nous et avons trouvé une superintelligence extraterrestre se dirigeant vers la Terre. Oui, ce sera notre propre production, née dans un laboratoire de recherche et d’étude d’entreprise, mais elle ne sera en aucun cas humaine. Comme je l’ai mentionné lors d’une conférence TED en 2017, le fait que nous apprenons à cette intelligence à être capable de se faire passer pour un être humain ne la rend pas moins étrangère. Cet esprit qui apparaîtra sera exceptionnellement différent de nous et nous n’avons aucune raison de croire qu’il aura des valeurs, une morale ou des sensibilités humaines. Et en lui apprenant à parler nos langues, à écrire le code de nos émissions et à l’intégrer à nos réseaux informatiques, nous le rendons activement plus dangereux qu’un extraterrestre qui apparaît de loin. Pire encore, nous apprenons à ces systèmes d’IA à lire nos émotions, anticiper nos réactions et influencer nos habitudes. Pour moi, c’est plus que stupide. Et pourtant, nous ne craignons pas l’arrivée de cette intelligence extraterrestre – pas de la manière viscérale et estomac retournée que nous craindrions un mystérieux vaisseau se dirigeant vers la Terre. C’est la réalité : nous craignons l’arrivée des mauvais extraterrestres et nous le ferons probablement jusqu’à ce qu’il soit beaucoup trop tard pour nous préparer. Et si cette IA extraterrestre apparaît comme Paris Hilton ou Snoop Dogg ou d’innombrables autres visages familiers et parle à chacun de nous d’une manière qui fait appel individuellement à notre personnalité et à nos antécédents, quelle possibilité avons-nous de résister ? Oui, nous devons protéger nos armes nucléaires et nos drones, mais nous devons également être agressifs en matière de sécurité par rapport à la mise en œuvre généralisée d’agents d’IA personnifiés.

C’est un risque réel et nous ne sommes pas préparés.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici