Le film acclamé par l’Académie montre que la vie est désagréable et imprévisible, impliquant– peut-être– que nous devons embrasser le chaos, découvrir le plaisir, apprendre à abandonner nos attentes et faire confiance à tout ce qui finira par s’exercer.
Cette méthode fait écho à la manière dont beaucoup abordent actuellement l’IA. Cela dit, les spécialistes sont divisés sur la question de savoir si cette technologie fournira des avantages illimités et un âge d’or ou entraînera nos dommages. Costs Gates, pour sa part, se concentre principalement sur le message enthousiaste de sa récente lettre Age of AI.
Il ne fait aucun doute maintenant que l’IA est extrêmement perturbateur. Craig Mundie, l’ancien directeur de la recherche et de la stratégie de Microsoft, en sait long sur les percées techniques. Lorsque Gates a démissionné de sa participation quotidienne avec Microsoft en 2008, Mundie a été sollicité pour remplir son rôle de visionnaire technologique.
Mundie a récemment déclaré à propos du GPT-4 nouvellement introduit et du ChatGPT amélioré : « Cela va tout changer sur la façon dont nous faisons tout, je pense que cela représente le plus grand développement de l’humanité à ce jour. C’est qualitativement différent- – et ce sera transformationnel. »
Occasion
Transform 2023
Rejoignez-nous à San Francisco les 11 et 12 juillet, où les magnats partageront comment ils ont effectivement intégré et optimisé les investissements en IA pour réussir et éviter les pièges courants.
Inscrivez-vous maintenant Le
possibilités
des quantités de travail » surhumaines »
Le niveau actuel d’enthousiasme autour de l’IA générative pourrait simplement refléter le pic de battage médiatique selon le concept expliqué par Gartner , se référant au pic des attentes gonflées. L’IA a déjà été dans cette position, puis a subi deux « hivers d’IA » lorsque l’excitation a dépassé les réalisations réelles.
Ces durées ont été définies par un investissement effondré et un désintérêt général de la part de tous, à l’exception d’un cadre raisonnablement restreint de scientifiques. Cette fois semble vraiment différente, néanmoins, en raison de la croissance rapide et continue des données, de la puissance de calcul et du code provoquant divers cas d’utilisation percutants.
Par exemple, Fortune a rendu compte des travaux d’Ethan Mollick, professeur de gestion à Wharton . En seulement trente minutes, il a utilisé des outils d’IA générative pour faire une étude marketing, créer un dossier de positionnement, écrire une campagne e-mail, développer un site, produire un logo et une image de héros, faire un projet de médias sociaux pour de nombreuses plateformes, développer un scénariser et produire une vidéo.
Il a déclaré dans un article complet, « ce qu’il a accompli était surhumain », réalisant en une demi-heure ce qui aurait normalement pris un groupe de jours à faire. Il demande alors : « Quand nous pouvons tous faire des quantités de travail surhumaines, que se passe-t-il ? »
Une explosion cambrienne d’IA générative
Il n’est pas exagéré de dire qu’une explosion cambrienne d’IA générative est en cours. Cela est particulièrement vrai récemment pour les chatbots alimentés par de grandes conceptions de langage (LLM). L’explosion d’activité a été mise en évidence par la version du 14 mars de GPT-4, la dernière mise à jour LLM d’OpenAI. Alors que GPT-4 était déjà utilisé dans Bing Chat de Microsoft, la technologie est maintenant intégrée à ChatGPT et est rapidement intégrée à d’autres éléments.
Google a suivi une semaine plus tard en présentant officiellement Bard, leur chatbot basé sur le LaMDA LLM. Bard avait en fait été annoncé plusieurs semaines auparavant, mais est désormais disponible en mode aperçu, disponible via une liste d’attente. Les premières évaluations révèlent des ressemblances avec ChatGPT – avec les mêmes centres, y compris l’écriture de poèmes et de code – ainsi que des imperfections (comme des hallucinations).
Google insiste sur le fait que Bard ne remplace pas son moteur de recherche en ligne, mais plutôt un « complément à la recherche » : un robot sur lequel les utilisateurs peuvent proposer des idées, rédiger des brouillons ou simplement discuter. sur la vie.
Prolifération de l’IA générative
Ce sont à peine les seules déclarations significatives sur l’IA générative de ces dernières semaines. Microsoft a également annoncé que le modèle de génération d’images DALL-E 2 est en cours d’intégration dans plusieurs de ses outils. Google a révélé pas moins de cinq mises à jour actuelles de leur utilisation des LLM dans les produits Google.
Au-delà de ces développements, il y a eu de nombreuses introductions supplémentaires de chatbots. Anthropic a lancé Claude, un chatbot « IA constitutionnel » utilisant une méthode « basée sur des principes » pour aligner les systèmes d’IA sur les intentions humaines. Databricks a lancé un code open source que les entreprises peuvent utiliser pour créer leurs propres chatbots.
Meta a lancé le LLaMA LLM en tant qu’outil de recherche pour le quartier clinique, qui a été rapidement divulgué en ligne, permettant à toute partie intéressée de télécharger et de modifier le modèle. Des chercheurs de l’Université de Stanford ont utilisé les modèles Meta comme point de départ et l’ont formé à l’aide des API ChatGPT, ce qui a donné un système qui, selon eux, fonctionne de la même manière que ChatGPT, mais a été produit pour seulement 600 $.
Transformateur, mais comment ?
L’engouement pour les chatbots a éclipsé d’autres réalisations de l’IA générative, consistant en la capacité de reconstruire des images haute résolution et assez précises à partir de l’activité cérébrale. Contrairement aux tentatives précédentes, ce dernier effort, tel qu’il est enregistré dans un article de session, n’a pas nécessité de former ou d’affiner les conceptions de l’IA pour créer les images.
Au lieu de cela, cette reconstruction a été réalisée à l’aide de modèles de diffusion, tels que ce qui sous-tend DALLE-2, Midjourney, Stable Diffusion et d’autres outils de génération d’images d’IA. Selon le journaliste Jacob Ward, cette découverte pourrait un jour permettre aux gens de se transmettre des images par le biais d’une communication cerveau à cerveau.
La transmission d’images est encore quelque part dans le futur. Ce qui pourrait être la prochaine grande chose est la génération de vidéo à partir d’invites de texte. Les nouvelles de Runway concernant la version 2 de leur générateur vidéo indiquent cette réalité à court terme. En attendant, les vidéos produites sont brèves – quelques secondes seulement – mais la capacité est apparente.
Toutes ces avancées actuelles de l’IA sont excessives et même enchanteresses, conduisant à prononcer une transformation impensable et un une toute nouvelle ère pour l’humanité, ce qui est tout à fait plausible. L’historien Yuval Harari prévient qu’il s’agit d’une minute importante pour ralentir. Il nous conseille que la langue est le système d’exploitation de la culture humaine.
Avec les nouveaux LLM, « la nouvelle maîtrise du langage de l’IA signifie qu’elle peut désormais pirater et contrôler le système d’exploitation de la civilisation. » Alors que le plafond des prestations est exorbitant, les dangers des inconvénients le sont également. Le point de vue de Harari est justifié et rapide.
Ces progrès nous rapprochent-ils de l’intelligence générale artificielle ?
Alors que beaucoup pensent que l’intelligence générale synthétique (IAG) ne sera jamais atteinte, elle commence pour donner l’impression qu’il est peut-être déjà arrivé. Une nouvelle étude de Microsoft traite de GPT-4 et mentionne qu’il s’agit : « d’un premier pas vers une série de systèmes de plus en plus intelligents ».
Comme rapporté par Futurism, le document inclut : « Offrant l’étendue et la profondeur des capacités de GPT-4, notre société pense qu’il pourrait raisonnablement être considéré comme une variante précoce (mais encore incomplète) d’un général synthétique intelligence (AGI). »
GPT-4 est basé sur l’apprentissage en profondeur, et il y a eu des inquiétudes quant à savoir s’il s’agit d’une base appropriée pour créer l’AGI, l’objectif mentionné d’OpenAI. Gary Marcus, une voix éminente sur les questions d’IA, a en fait plaidé pour un modèle d’IA hybride pour accomplir l’AGI, qui intègre à la fois l’apprentissage en profondeur et les opérations symboliques classiques. Il semble qu’OpenAI fasse simplement cela en activant les plug-ins pour ChatGPT.
WolframAlpha est l’un de ces plug-ins. Comme l’a rapporté Stephen Wolfram dans Stratechery : « Pendant des décennies, il y a eu une dichotomie dans la réflexion sur l’IA entre les « approches analytiques » du type utilisé par ChatGPT et les « méthodes symboliques » qui sont le point de départ de Wolfram|Alpha.
Alpha comprend le langage naturel – il y a enfin la possibilité de les combiner pour créer quelque chose de beaucoup plus puissant que l’un ou l’autre ne pourrait jamais atteindre par lui-même. »
Déjà, le plug-in réduit visiblement les hallucinations dans ChatGPT, ce qui donne des résultats plus précis et bénéfiques. Plus considérablement encore, le chemin vers l’AGI est devenu beaucoup plus court. Sans aucun doute, tout partout à la fois..
Toute l’actualité en temps réel, est sur L’Entrepreneur