Historiquement, les périodes d’amélioration et de modification rapides ont en fait marqué le début de périodes d’incertitude fantastique. L’économiste de Harvard, John Kenneth Galbraith, a évoqué cette époque dans son livre de 1977, dans lequel il évoque les succès de l’économie de marché mais anticipe également une période d’instabilité, d’inefficacité et d’injustice sociale.
Aujourd’hui, alors que nous naviguons dans les vagues transformatrices de l’IA, nous nous trouvons à l’aube d’une nouvelle période marquée par des imprévisibilités similaires. Néanmoins, cette fois, la force motrice n’est pas seulement l’économie : c’est la marche impitoyable de l’innovation, en particulier l’augmentation et le progrès de l’IA.
L’empreinte croissante de l’IA
Actuellement, l’effet de l’IA finit par être plus perceptible dans la vie quotidienne. Des airs générés par l’IA aux haïkus écrits dans le style de Shakespeare, en passant par les camions autonomes, les chatbots capables d’imiter les êtres chers perdus et les assistants IA qui nous aident dans notre travail, la technologie commence à devenir omniprésente. p>
L’IA finira rapidement par être beaucoup plus répandue à l’approche du tsunami de l’IA. Ethan Mollick, professeur à la Wharton School, a récemment discuté des résultats d’une expérience sur l’avenir du travail professionnel. L’expérience s’est concentrée sur deux groupes de spécialistes travaillant pour le Boston Specialist Group. Chaque groupe s’est vu proposer de nombreuses tâches typiques. Un groupe avait la possibilité d’utiliser l’IA actuellement proposée pour augmenter ses efforts, tandis que l’autre ne l’avait pas.
est un aperçu de ce qui s’en vient.
La prochaine vague de conceptions d’IA
La prochaine génération de LLM sera plus sophistiquée et plus généralisée que la récolte actuelle qui comprend GPT-4 (OpenAI), PaLM 2 (Google), LLaMA (Meta) et Claude 2 (Anthropic). Il est probable qu’il y aura également un nouveau venu en conception, peut-être très compétent, issu de xAI, la nouvelle start-up d’Elon Musk. Des capacités telles que la réflexion, le bon sens et le jugement restent de gros obstacles pour ces modèles. Nous pouvons cependant nous attendre à voir des progrès dans chacun de ces domaines.
Parmi la prochaine génération, le Wall Street Journal a rapporté que Meta travaille sur un LLM qui sera au moins aussi performant que GPT-4. Selon le rapport, cela est prévu pour 2024. Il est raisonnable de s’attendre à ce qu’OpenAI travaille également sur sa prochaine génération, même s’ils sont restés silencieux en parlant de stratégies. Cela ne durera probablement pas longtemps.
Sur la base des informations actuellement disponibles, le tout nouveau modèle le plus important est « Gemini » du groupe combiné Google Brain et DeepMind AI. Les Gémeaux pourraient aller bien au-delà de tout ce qui est proposé aujourd’hui. Le PDG d’Alphabet, Sundar Pichai, a annoncé en mai dernier que la formation sur la conception était en cours.
Pichai a déclaré sur un blog à l’époque : « Bien qu’il soit encore tôt, nous constatons déjà d’excellentes capacités multimodales jamais vues auparavant. des modèles. »
Multimodal suggère qu’il peut traiter et comprendre de nombreux types d’entrées de données (texte et images), servant ainsi de base aux applications basées sur du texte et des images. La référence à des capacités non observées dans les modèles antérieurs indique qu’il pourrait y avoir de plus grandes qualités et comportements émergents ou inattendus. Un exemple émergent de la génération actuelle est la capacité de développer du code informatique, car cette capacité n’était pas prévue.
Un couteau suisse pour les modèles d’IA ?
Il y a eu des rapports selon lesquels Google a en fait donné accès à un petit groupe d’entreprises à une première version de Gemini. L’un d’eux pourrait être SemiAnalysis, une société de recherche réputée sur les semi-conducteurs. Selon un nouvel article de l’entreprise, Gemini pourrait être 5 à 20 fois plus avancé que les modèles GPT-4 actuellement sur le marché.
La conception de Gemini sera probablement basée sur le Gato de DeepMind divulgué en 2022. Un article de VentureBeat L’année dernière, a rapporté : « Le modèle de transformateur d’apprentissage profond [Gato] est qualifié de « représentant généraliste » et prétend effectuer 604 tâches uniques et principalement banales avec diverses modalités, observations et spécifications d’action. Il a en fait été appelé le modèle suisse. Couteau d’armée des conceptions d’IA. Il est clairement beaucoup plus basique que les autres systèmes d’IA développés jusqu’à présent et, à cet égard, semble être une action vers l’AGI [intelligence de base synthétique] »
Vers l’intelligence de base synthétique (AGI)
Déjà, on pense que GPT-4 montre des « stimulants de l’AGI » selon Microsoft, capables de « résoudre des luttes nouvelles et difficiles qui couvrent les mathématiques, le codage, la vision, la médecine, le droit, la psychologie et plus encore, sans avoir besoin d’aucun incitation spéciale. » En dépassant toutes les conceptions existantes, Gemini pourrait en effet constituer une action majeure en faveur de l’AGI. La spéculation est que Gemini sera lancé dans plusieurs niveaux de capacités de conception, peut-être sur quelques mois et peut-être avant la fin de cette année.
Aussi impressionnant que soit Gemini, il est encore plus grand et sophistiqué. des modèles sont attendus. Mustafa Suleyman, PDG et cofondateur d’Inflection AI et cofondateur de DeepMind, a prédit lors d’une conversation avec Economist que « dans les 5 prochaines années, les entreprises modèles de pointe – celles d’entre nous à la pointe de la technologie qui forment les plus grandes IA modèles – vont former des conceptions qui sont plus de mille fois plus grandes que ce que vous voyez aujourd’hui dans GPT-4. «
Les applications potentielles et l’impact que ces modèles pourraient avoir sur nos vies pourraient être inégalés, avec le potentiel d’avantages formidables ainsi que de risques accrus. Les prix de Vanity Fair citent David Chalmers, professeur de philosophie et de sciences neuronales à NYU : « Les avantages de cela sont énormes, peut-être que ces systèmes trouvent des remèdes à la maladie et des solutions à des problèmes comme les difficultés et le changement climatique, et ce sont des avantages énormes. » L’article passe également en revue les dangers potentiels, citant des prédictions professionnelles de résultats terribles comprenant la possibilité d’une extinction humaine, avec des estimations de possibilité variant de 1 % à 50 %.
La fin de l’histoire dominée par l’homme ?
Lors d’une conversation avec des experts économiques, l’historien Yuval Noah Harari a déclaré que ces progrès à venir dans le domaine de l’IA ne marqueront pas la fin de l’histoire, mais « l’achèvement d’une histoire dominée par l’homme ». L’histoire continuera, avec quelqu’un d’autre aux commandes. Je considère cela plutôt comme une intrusion extraterrestre. »
Ce à quoi Suleyman a répliqué : les outils d’IA n’auront pas de compagnie, ce qui signifie qu’ils pourront s’abstenir de faire quoi que ce soit au-delà de ce que les gens leur donnent le pouvoir de faire. Harari a alors répondu que cette future IA pourrait être « plus intelligente que nous. Comment empêcher quelque chose de plus intelligent que vous de créer une entreprise ? Avec l’agence, une IA pourrait poursuivre des actions qui pourraient ne pas être alignées sur les exigences et les valeurs humaines.
Ces modèles de nouvelle génération représentent la prochaine étape vers l’AGI et un avenir où l’IA deviendra beaucoup plus performante, intégrée et indispensable à la vie moderne. Bien qu’il y ait suffisamment de raisons d’espérer, ces nouveaux développements anticipés incitent encore plus à exiger une surveillance et des lignes directrices.
Le dilemme réglementaire
Même les chefs d’entreprise qui élaborent des conceptions frontalières sont d’accord. cette politique est essentielle. Après qu’un certain nombre d’entre eux ont comparu collectivement devant le Sénat américain le 13 septembre, Fortune a indiqué qu’ils « soutenaient vaguement le concept de lignes directrices gouvernementales » et qu’« il y avait peu de consensus sur ce à quoi ressemblerait la réglementation ».
Le La séance a été organisée par le sénateur Chuck Schumer, qui a ensuite parlé des difficultés rencontrées dans l’élaboration d’une réglementation appropriée. Il a mentionné que l’IA est techniquement complexe, qu’elle ne cesse de se modifier et qu’elle « a un effet très vaste dans le monde entier ».
Il n’est peut-être même pas raisonnablement possible de gérer l’IA. D’une part, une grande partie de l’innovation a en fait été publiée sous forme de logiciel open source, ce qui implique qu’elle est disponible avec succès dans la nature et que tout le monde peut l’utiliser. Cela seul pourrait rendre problématiques de nombreux efforts de réglementation.
Mesure préventive logique et sensée
Certains voient les déclarations publiques des leaders de l’IA en faveur des lignes directrices théâtrales. MarketWatch a rapporté le point de vue de Tom Siebel, cadre de longue date de la Silicon Valley et actuel PDG de C3 AI : « Les dirigeants de l’IA jouent à la corde avec les législateurs, leur demandant de bien vouloir nous gérer. Mais il n’y a pas assez d’argent et d’intellectuels. capital pour garantir la sécurité de millions d’algorithmes. Ils savent que c’est impossible. »
Cela pourrait en effet être impossible, mais nous devons essayer. Comme l’a noté Suleyman dans sa discussion avec un expert financier : « C’est le moment où nous devons adopter un principe de précaution, non pas par le biais d’un semeur de peur, mais simplement comme une méthode rationnelle et sensée pour continuer. »
Comme l’IA rapidement progresse de capacités étroites vers AGI, la garantie est énorme mais les dangers sont profonds. Cette époque d’imprévisibilité requiert notre conscience, notre sagesse et notre prudence les plus profondes pour développer ces technologies d’IA au profit de l’humanité tout en prévenant les risques extrêmes possibles.
.
Toute l’actualité en temps réel, est sur L’Entrepreneur