vendredi, 13 décembre 2024

Le coup d’État d’OpenAI pourrait freiner la croissance en faveur de la sécurité de l’IA

Bien que de nombreuses informations restent non identifiées sur les raisons spécifiques du licenciement du PDG d’OpenAI, Sam Altman vendredi, de toutes nouvelles réalités sont apparues selon lesquelles le co-fondateur de l’émission, Ilya Sutskever, a dirigé la procédure de tournage, avec le soutien du conseil d’administration.

Bien que la déclaration du conseil d’administration concernant la fusillade indique qu’elle résulte d’une communication d’Altman qui « n’était pas régulièrement honnête », les facteurs précis ou le moment précis du choix du conseil d’administration restent secrets.

Une chose est claire : Altman et son co-fondateur Greg Brockman, qui a abandonné vendredi après avoir découvert le licenciement d’Altman, étaient les dirigeants du côté des services de l’entreprise, faisant le maximum pour lever des fonds de manière agressive et élargir les offres de l’entreprise OpenAI. , et faire progresser ses capacités d’innovation le plus rapidement possible.

Sutskever, quant à lui, dirigeait le côté ingénierie de l’entreprise et était en fait obsédé par les ramifications à venir de l’innovation en matière d’IA générative d’OpenAI, parlant fréquemment en termes crus de que se passera-t-il lorsque l’intelligence artificielle générale (AGI) sera atteinte. Il a prévenu que la technologie serait si puissante qu’elle priverait la plupart des gens de leurs tâches.

Événement VB

La tournée des effets de l’IA

Connectez-vous avec l’IA de l’entreprise communauté au AI Effect Tour de VentureBeat concernant une ville près de chez vous !

En savoir plus En tant que spectateurs

consulté vendredi soir

pour plus d’indices sur ce qui s’est exactement passé à OpenAI, l’observation la plus courante a été à quel point Sutskever avait en fait eu l’intention de diriger une faction au sein d’OpenAI qui finissait par s’inquiéter progressivement des pressions monétaires et de croissance exercées par Altman, et des indications selon lesquelles Altman avait dépassé les limites et n’était plus en conformité avec la mission à but non lucratif d’OpenAI. La dynamique de croissance a conduit à un pic d’utilisateurs après le dernier Dev Day d’OpenAI, ce qui

suggère que l’entreprise ne disposait pas de capacités de serveur adéquates pour l’équipe de recherche, ce qui aurait pu contribuer à la déception de Sutskever et d’autres que Altman. n’agissait pas en accord avec le conseil d’administration. Si cela est vrai et que le rachat mené par Sutskever aboutit à une entreprise qui freine sa croissance et se recentre sur la sécurité, cela pourrait entraîner des retombées substantielles au sein de la base d’employés de l’entreprise, ce qui a en fait été embauché avec des salaires élevés et des attentes de croissance. 3 chercheurs seniors d’OpenAI ont démissionné après la nouvelle de vendredi soir, selon The Details. De nombreuses sources ont rapporté des commentaires lors d’une conférence impromptue à tous après le tir, au cours de laquelle Sutskever a déclaré certaines choses qui recommandaient que lui et d’autres membres du conseil d’administration axés sur la sécurité avaient appuyé sur le bouton de panique afin de ralentir les choses. Selon The Info :  » Outre Altman, Brockman et Sutskever, le conseil d’administration d’OpenAI était composé du créateur de Quora, Adam D’Angelo, de l’entrepreneur technologique Tasha McCauley et d’Helen Toner, directrice technique au Centre pour la sécurité et l’innovation émergente de Georgetown. La journaliste Kara Swisher a en fait rapporté que Sutskever et Toner étaient alignés dans une scission contre Altman et Brockman. Et le conseil d’administration et son mandat sont très peu conventionnels, nous l’avons effectivement rapporté, puisqu’il est chargé de poursuivre « l’AGI sûre… c’est-à-dire en gros « utile », et déterminant quand l’AGI a été atteint. Le mandat a reçu une attention accrue ces derniers temps et a créé un débat et une incertitude. Vendredi soir, de nombreux observateurs ont élaboré une chronologie des événements, y compris les efforts d’Altman et de Brockman pour collecter plus d’argent à un niveau élevé. une évaluation de 90 milliards de dollars, tout cela indique une probabilité extrêmement élevée que des disputes éclatent au niveau du conseil d’administration, Sutskever et d’autres s’inquiétant des dangers possibles présentés par certaines avancées récentes d’OpenAI qui ont en fait poussé l’automatisation de l’IA à des niveaux accrus. Altman avait en fait validé que l’entreprise travaillait sur GPT-5, la prochaine phase d’efficacité de conception pour ChatGPT. Et lors de la conférence APEC la semaine dernière à San Francisco, Altman a évoqué avoir récemment vu davantage de preuves d’un autre pas en avant dans l’innovation de l’entreprise : « Quatre fois dans l’histoire d’OpenAI —- la fois la plus récente remontant aux deux dernières années. semaines —- J’ai en fait eu l’occasion d’être dans la pièce lorsque nous repoussons le voile du manque de connaissances et faisons avancer la frontière de la découverte. Parvenir à cela est l’honneur professionnel de toute une vie. « ( Voir minute 3:15 de cette vidéo ; chapeau à Matt Mireles.) Le scientifique des données Jeremy Howard a publié un long fil de discussion sur X sur la façon dont le DevDay d’OpenAI a été une humiliation pour les scientifiques préoccupés par la sécurité, et les séquelles ont été le coup final pour Sutskever : d’accord, tout le monde demande moi pour

mon point de vue sur les choses OpenAI, alors le voici. J’ai une forte impression de ce qui se passe, mais aucune information interne, donc c’est simplement moi qui parle. La toute première indication est que le Dev Day était (à mon avis) une véritable honte.

— Jeremy Howard( @jeremyphoward )18 novembre 2023 Il convient également de noter qu’après la présentation du tout nouveau constructeur de maisons GPT au DevDay, certains sur X/ Twitter a mentionné que vous pouviez en récupérer

des informations qui semblaient privées ou moins que protégées. D’un autre côté, de nombreux leaders technologiques ont apporté leur soutien à Altman, y compris l’ancien PDG de Google, Eric Schmidt, et certains craignent que le conseil d’administration d’OpenAI ne torpille sa crédibilité, quels que soient les facteurs ayant motivé le tournage d’Altman. La scientifique Nirit Weiss-Blatt a offert un excellent aperçu de la vision du monde de Sutskever

dans son article sur les remarques qu’il avait faites récemment en mai : « Si vous pensez que l’IA va réellement automatiser toutes les tâches, littéralement, alors cela a du sens pour une entreprise. qui construit une telle technologie pour… ne pas maximiser purement et simplement les profits.

C’est pertinent précisément parce que ces choses se produiront à un moment donné… Si vous pensez que l’IA va le faire, au minimum, chômer tout le monde, c’est comme, Holy Moly ? [L’objectif de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir une compréhension de l’innovation et des transactions commerciales transformatrices. Découvrez nos instructions.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici