mardi, 5 décembre 2023

Les troubles à OpenAI soulèvent des inquiétudes quant à l’avenir et aux progrès rapides de genAI

Les retombées de la fusillade du co-fondateur d’OpenAI se sont poursuivies aujourd’hui, suscitant des inquiétudes quant à l’avenir incertain de l’OpenAI. l’entreprise pourrait avoir un impact plus large sur l’avenir de l’innovation en matière d’IA générative (genAI).

Des centaines de membres du personnel d’OpenAI – presque l’ensemble du personnel de l’entreprise – ont signé lundi une lettre menaçant d’abandonner et d’aller travailler pour Microsoft à moins que Tous les membres du conseil d’administration d’OpenAI démissionnent et reconduit le co-fondateur Sam Altman au poste de PDG, selon une note diffusée sur les réseaux sociaux.

« Vos actions ont en fait montré que vous êtes incapable de superviser OpenAI. » » ont écrit les membres du personnel. « Nous ne sommes pas en mesure de travailler pour ou avec des personnes qui n’ont pas les compétences, le jugement et le souci de notre objectif et des membres de notre personnel. Microsoft nous a en fait garanti qu’il y aurait des postes pour tous les travailleurs d’OpenAI. »

Ces tâches seraient confiées au nouveau laboratoire d’IA sophistiqué de Microsoft, désormais dirigé par Altman et Greg Brockman, ancien président et membre du conseil d’administration d’OpenAI qui a démissionné à cause du mandat d’Altman. tournage.

Si OpenAI devait imploser à cause du remaniement interne, qui n’a pas encore été entièrement discuté, les spécialistes du marché ont déclaré que cela n’aurait pas d’impact significatif sur le développement de l’IA. « Le chat est sorti du sac, les gens comprennent ce que ces conceptions peuvent faire et les recettes pour y parvenir », a déclaré Braden Hancock, responsable de la technologie et co-fondateur de Snorkel AI, une qui aide les entreprises à développer de grands modèles de langage (LLM). pour une utilisation spécifique à un domaine.

« L’IA ouverte a réussi le et la livraison des produits, mais l’innovation de base est poursuivie en même temps par au moins un grand nombre d’entreprises technologiques importantes, bien financées et dotées d’un personnel suffisant, et non pour discuter des laboratoires de recherche et de centaines de startups d’IA », a déclaré Hancock. « Ils avaient l’avantage d’être les premiers à arriver, mais l’IA générative est là pour rester, peu importe qui est en tête du marathon à tout moment. »

Pour les entreprises qui déploient ou envisagent actuellement des plateformes genAI, les conseils de Hancock est de bien construire leur stratégie d’IA, ce qui consisterait à ne pas trop compter sur un seul fournisseur de services.  » Tout comme le multi-cloud est un élément crucial de la gestion des risques pour les entreprises depuis des années, la progression du multi-LLM devrait l’être également « , a-t-il déclaré.

L’univers de l’IA est un spectacle du Far West. aujourd’hui, selon Jack Gold, analyste principal chez J. Gold Associates. Et avec le changement de direction d’OpenAI, la situation est devenue encore plus sauvage.

« Vous avez les deux développeurs, fondateurs et forces dirigeantes d’OpenAI, avec lesquels Microsoft travaille désormais, qui est aujourd’hui un financier », a déclaré Gold. « Mais à l’avenir, Microsoft finira par être un concurrent direct. Leur faire diriger le laboratoire d’IA sophistiqué de Microsoft offre la capacité de recréer et de surpasser ce qu’OpenAI a réellement fait. Microsoft dispose d’une énorme quantité de ressources qu’il peut utiliser. »

Le conseil d’administration d’OpenAI est composé de quatre membres (en plus de Brockman), dont Adam D’Angelo, l’actuel PDG de Quora ; Tasha McCauley, chercheuse accessoire en haute direction chez Rand Corporation ; Helen Toner, directrice de la méthode du Centre pour la sécurité et l’innovation émergente de Georgetown ; et Ilya Sutskever, parmi les trois cofondateurs de l’entreprise et son chercheur principal.

Sutskever a également signé la lettre de l’employé menaçant de s’adresser à Microsoft si les membres du conseil d’administration ne démissionnent pas. Il a également tweeté : « Je regrette profondément mon implication dans les actions du conseil d’administration. Je n’ai jamais prévu de nuire à OpenAI. J’aime tout ce que nous avons développé ensemble et je ferai tout ce que je peux pour réunir l’entreprise. »

Avivah Litan, vice-président analyste différencié de Gartner, a déclaré que le conflit au sein d’OpenAI montre la nécessité d’une réglementation internationale pour une IA sûre et sécurisée. « Notre sécurité future ne devrait pas dépendre des impulsions capricieuses d’individus dirigeant le secteur de l’IA vers l’intelligence artificielle de base », a déclaré Litan, faisant référence à la marche vers « la singularité », lorsque l’IA ne nécessitera plus de contrôle humain.

Le décret actuel du président Joe Biden, qui a mis en place des garde-fous autour de l’IA pour les entreprises fédérales, représente un C’est un bon début vers des directives de fond significatives, mais il faut aller encore plus loin, a déclaré Litan. « La tourmente d’OpenAI devrait fonctionner comme un signal d’alarme quant au besoin urgent d’action et de leadership », a-t-elle déclaré.

Cliff Jurkiewicz, vice-président de la méthode internationale au service d’emploi basé sur l’IA Phenom, a déclaré contrairement aux innovations disruptives qui l’ont précédé, ChatGPT et d’autres outils genAI permettent un développement beaucoup plus rapide. Il pense que ce qui se joue ouvertement, c’est la bataille de la direction d’OpenAI pour suivre ce nouveau rythme plus rapide tout en maintenant la stabilité et la confiance en soi dans leur prise de décision.

Le conseil d’administration d’OpenAI, a-t-il déclaré, a adopté « l’approche d’innovation qui consiste à arrêter de travailler rapidement et l’a utilisée pour gérer une entreprise. »

« Ce n’est pas de l’innovation. C’est le chaos. » » a déclaré Jurkiewicz. « La monétisation de la technologie n’était pas conforme à la mission et aux valeurs du conseil d’administration. Nous vivons dans un monde capitaliste. Les organisations peuvent être à la fois rentables et éthiques. Faire preuve ouvertement d’une exigence éthique élevée lorsqu’il s’agit d’utiliser un système expert sera la marque. -une nouvelle mesure d’une organisation qui s’appuie sur une organisation qui donne la priorité aux humains. « 

En tant que start-up, OpenAI s’appuie presque entièrement sur des investisseurs en capitaux propres (VC) et sur des VC, Gold a gardé à l’esprit, sont généralement impatients d’obtenir un retour rapide sur leurs investissements. Cela, a-t-il dit, aurait pu provoquer la fusillade d’Altman.

Dans une tournure inhabituelle, Altman faisait partie des plus de 33 700 personnes à signer une lettre ouverte, aux côtés de sommités technologiques notables comme le co-fondateur d’Apple, Steve Wozniak, exigeant une pause dans le développement du GPT LLM d’OpenAI. (Les LLM constituent la base algorithmique des chatbots comme ChatGPT d’OpenAI.)

Les professionnels du secteur ont émis l’hypothèse que la prochaine version du LLM, GPT 5, pourrait permettre la réalisation de soi et l’accès à l’inconnu dans l’IA.

« Même s’il y aura certainement des start-ups [d’IA] qui souffriront d’avance, elles ne sont pas les seules jeux vidéo en ville », a déclaré Luis Ceze, PDG de la plateforme de mise en œuvre de conception d’IA OctoML et professeur et professeur à l’Université de Washington. VC chez Madrona Ventures.  » L’Open Source utilise aujourd’hui une grande variété de modèles permettant aux entreprises de se diversifier. Ce faisant, ces startups peuvent rapidement pivoter et réduire les menaces. « 

Ceze a déclaré qu’il y avait potentiellement un « avantage majeur » au remaniement d’OpenAI. car de nombreuses conceptions open source dépassent déjà GPT 4 en termes de prix, d’efficacité et de rapidité. Ils n’ont tout simplement pas encore cette reconnaissance.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici