Neue neuronale Funktionen in KI-Systemen könnten das Problem der KI-Halluzinationen lösen
Summary:
Halluzinationen der künstlichen Intelligenz (KI), ein großes Problem der Branche, können durch neu entdeckte neuronale Merkmale gelöst werden. Bei diesen Halluzinationen handelt es sich um falsche Daten, die beim Training großer KI-Sprachmodelle entstehen. Der CEO von Anthropic, Dario Amodei, betont, dass diese neuronalen Merkmale das Eingreifen und Ändern von KI-Systemen ermöglichen. Das Unternehmen untersucht die Auswirkungen der Anpassung dieser Funktionen zur Änderung des KI-Verhaltens. Darüber hinaus hängt der Fortschritt in der KI-Entwicklung nicht mehr in erster Linie von Daten, sondern von Talenten ab, da synthetische Datensätze aufkommen, so Amodei.
Neu entdeckte Aspekte der neuronalen Funktionsweise von Systemen der künstlichen Intelligenz (KI) könnten möglicherweise ein anhaltendes Problem beheben, das als KI-Halluzinationen bekannt ist. Solche Halluzinationen sind unerwartete Ergebnisse, die entstehen, wenn größere Sprachmodelle trainiert werden, um als generative KI-Systeme zu funktionieren. Diese Modelle generieren manchmal neuartige, wenn auch falsche Daten, die zuvor nicht Teil ihres Datensatzes waren. Diese neuen neuronalen Funktionen könnten jedoch die Lösung für dieses Problem sein, sagt Dario Amodei, Mitbegründer und CEO von Anthropic.
In einer Rede auf der Pariser Viva Tech-Veranstaltung im Jahr 2024 erklärte Amodei, dass moderne KI-Systeme Hunderte von Millionen Neuronen umfassen. Er hob die Entdeckung von 30 Millionen Merkmalen innerhalb ihres Modells hervor, einschließlich solcher, die mit Sicherheitslücken oder Vorurteilen gegenüber bestimmten Gruppen verbunden sind. Die Fähigkeit, in diese Merkmale einzugreifen und sie zu verändern, wurde nun gewonnen.
Das Problem mit Halluzinationen ist, dass KI-Prozesse sich nicht bewusst sind, dass ihre Ausgabe falsch ist. Amodei versichert jedoch, dass diese neuen Funktionen möglicherweise den KI-Halluzinationen ein Ende setzen könnten. Er behauptet: "Zu den Hauptvorteilen dieser neuen Entdeckung gehört die Reduzierung von Halluzinationen durch künstliche Intelligenz."
Bei Anthropic wird derzeit geforscht, um zu untersuchen, wie die Änderung interner Merkmale das KI-Verhalten verändern kann. Sie haben es geschafft, ein Demonstrationsmodell zu erstellen, bei dem ein einzigartiges Merkmal dazu führte, dass sich die KI stark auf die Golden Gate Bridge konzentrierte. Am 23. Mai drückte Anthropic in einem X-Beitrag seine Zuversicht aus: "Die Fähigkeit, diese Merkmale in Claude zu identifizieren und zu modifizieren, stärkt unser Vertrauen, zu verstehen, wie umfangreiche Sprachmodelle wirklich funktionieren."
Anthropic, ein angesehenes KI-Entwicklungsunternehmen, hat Anfang Mai seinen KI-Chatbot Claude auf dem europäischen Markt eingeführt. Claude ist über seine Webanwendung und iOS-App verfügbar und unterstützt seit dem 14. Mai mehrere europäische Sprachen wie Französisch, Deutsch, Spanisch und Italienisch.
Das Wachstum der künstlichen Intelligenz beruht laut Amodei auf Talenten und nicht mehr auf Daten. Die Knappheit an Daten behinderte zuvor die KI-Entwicklung, aber die Einführung synthetischer Datensätze hat das Haupthindernis auf einen Mangel an Entwicklerfähigkeiten verlagert. Synthetische Daten sind vielversprechend für die Skalierbarkeit von KI, aber Amodei warnte vor einem ausgewogenen Verhältnis zwischen synthetischen und realen Daten, da überschüssige synthetische Daten zu schwächeren, unrealistischen Datensätzen führen können.
Die Investitionen in KI sind seit Anfang 2024 deutlich gestiegen, wobei das Unternehmen von Elon Musk am 27. Mai satte 6 Milliarden US-Dollar in einer Serie-B-Finanzierung an Land zog. Diese Finanzierung zielt darauf ab, seinen Grok-Chatbot bis Ende des Jahres als ChatGPT-Rivalen zu positionieren.
Published At
5/29/2024 12:49:21 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.