Umstrukturierung bei OpenAI: Schlüsselforscher treten wegen unterschiedlicher Ansichten zu KI-Sicherheitsprioritäten zurück
Summary:
Wichtige Forscher aus dem OpenAI-Team, die sich auf potenzielle KI-Risiken konzentrieren, sind entweder zurückgetreten oder wurden aufgrund von Meinungsverschiedenheiten über die Prioritäten der Organisation neu zugewiesen. Dies folgt auf das Ausscheiden von Ilya Sutskever, dem leitenden Wissenschaftler von OpenAI, und Jan Leike, dem Co-Leiter des Super-Alignment-Teams. Leike betonte den dringenden Bedarf an Ressourcen für die Sicherheitsforschung und kritisierte OpenAI dafür, dass es der Produktentwicklung Vorrang vor der KI-Sicherheit einräumt. Der jüngste Schritt, das "Superalignment"-Team aufzulösen, erfolgte inmitten der laufenden internen Umstrukturierung des Unternehmens. Sutskever hatte zuvor angedeutet, dass die Entscheidungen des Vorstands darauf abzielten, sicherzustellen, dass OpenAI an der Entwicklung von AGI zum Wohle der Menschheit festhält.
In den jüngsten Nachrichten hat OpenAI einen kompletten Wandel in seinem Team erlebt, das die potenziellen Gefahren der künstlichen Intelligenz vehement untersucht hatte, wobei alle Mitglieder entweder ihre Posten kündigten oder verschiedenen Forschungsfraktionen zugewiesen wurden. Dies folgt dicht auf den Fersen des Chefwissenschaftlers und Mitbegründers von OpenAI, Ilya Sutskever, der seine Entscheidung bekannt gab, das Unternehmen zu verlassen. Darüber hinaus ist der leitende Autor des Super-Alignment-Teams von OpenAI, Jan Leike, der früher mit DeepMind verbunden war, von seiner Position zurückgetreten und hat seinen Rücktritt offiziell auf Plattform X mitgeteilt.
Leikes Ausstieg wurde auf sein Misstrauen gegenüber den aktuellen Zielen des Unternehmens zurückgeführt, die seiner Meinung nach eher auf die Produktverfeinerung als auf die Bedeutung der KI-Sicherheit ausgerichtet sind. In einer Reihe von Veröffentlichungen widersprach Jan Leike den Richtlinienschwerpunkten von OpenAI und forderte das Management auf, die Sicherheit und Bereitschaft in Bezug auf die Weiterentwicklung von AGI oder Artificial General Intelligence zu berücksichtigen, einer theoretischen Form der künstlichen Intelligenz, von der erwartet wird, dass sie die menschlichen Fähigkeiten bei der Ausführung einer Vielzahl von Aufgaben erreicht oder sogar übertrifft.
Nachdem er drei Jahre seiner Karriere OpenAI gewidmet hatte, äußerte Leike seine Bedenken hinsichtlich der Vorzugsbehandlung des Unternehmens bei der Entwicklung glamouröser Produkte, wodurch die entscheidende Pflege einer gesunden Kultur und von Systemen, die sich auf KI-Sicherheit konzentrieren, in den Hintergrund gedrängt wird. Er betonte vehement die Notwendigkeit, Ressourcen, vor allem Rechenkompetenzen, neu zuzuweisen, um die umfangreiche sicherheitsorientierte Forschung unter der Leitung seines Teams zu unterstützen, eine Aufgabe, die auffällig ignoriert wurde.
OpenAI hat im Juli des Vorjahres eine neuartige Forschungsgruppe gegründet, mit dem Ziel, sich auf die mögliche Entstehung einer genial effizienten künstlichen Intelligenz vorzubereiten, die in der Lage ist, ihre menschlichen Erfinder zu übertreffen und zu überwältigen. Co-Leiter dieser neuen Fraktion war der leitende Wissenschaftler und Mitbegründer von OpenAI, Ilya Sutskever, der von 20 % der Rechenressourcen von OpenAI unterstützt wurde.
Angesichts der jüngsten Kündigungswelle hat OpenAI beschlossen, das "Superalignment"-Team aufzulösen und seine Verantwortlichkeiten in andere Forschungsprojekte in seinem Zuständigkeitsbereich zu integrieren. Dieser Schritt wird als Folge der Umstrukturierungsänderungen innerhalb der Organisation angesehen, die ihren Ursprung in der Bewältigung der Managementkrise im November 2023 hatten. Sutskever spielte eine wichtige Rolle bei der vorübergehenden Verdrängung von CEO Altman aus dem Vorstand von OpenAI in dieser Zeit, der nach dem Widerstand der Arbeitnehmerschaft kurz darauf wieder eingestellt wurde.
Berichten zufolge erklärte Sutskever der Belegschaft, dass die Entschlossenheit des Vorstands, Sam Altman von seiner Position zu entheben, mit ihrem Mandat übereinstimmt, sicherzustellen, dass die AGI-Entwicklung von OpenAI im besten Interesse der Menschheit ist. Als eine wichtige Person unter den sechs Mitgliedern des Vorstands wiederholte Sutskever das Engagement des Vorstands, die Mission von OpenAI im Einklang mit dem größeren gemeinsamen Ziel zu stärken.
Published At
5/18/2024 2:30:32 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.