Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI und Microsoft arbeiten zusammen, um staatsnahe Cyberangriffe unter Ausnutzung von KI-Tools zu vereiteln

Algoine News
Summary:
OpenAI und Microsoft haben zusammengearbeitet, um fünf staatsnahe Cyberangriffe zu vereiteln, die große Sprachmodelle ausnutzten, darunter GPT-4 von OpenAI. Die Angriffe, die mit China, dem Iran, Nordkorea und Russland in Verbindung gebracht wurden, zielten darauf ab, KI für verschiedene Cyberaktivitäten zu nutzen, was OpenAI dazu veranlasste, seine Verteidigungsmaßnahmen zu verstärken. Trotz der anhaltenden Bemühungen von OpenAI und anderen, die KI-Cybersicherheit anzugehen, bestehen weiterhin Bedrohungen, die dazu führen, dass sich über 200 Unternehmen Initiativen anschließen oder diese gründen, die sich auf die Förderung der KI-Sicherheit und die Bewältigung von Cybersicherheitsproblemen konzentrieren.
OpenAI, die Organisation hinter der beliebten ChatGPT-Software, hat sich mit dem Hauptinvestor Microsoft zusammengetan, um fünf von der Regierung unterstützte Cyberangriffe erfolgreich abzuwehren. Die Hacker, die mit einer Auswahl ausländischer Mächte in Verbindung stehen, darunter der russische Militärgeheimdienst, die iranischen Revolutionsgarden sowie die chinesische und nordkoreanische Regierung, zielten darauf ab, ihre Fähigkeiten mithilfe von Large Language Models (LLMs) zu verbessern, ausgeklügelten Systemen, die auf KI basieren und durch die Analyse umfangreicher Textdaten beeindruckend menschenähnliche Antworten generieren können. OpenAI identifizierte, dass die Cyberangriffe von zwei chinesischen Gruppen namens Charcoal Typhoon und Salmon Typhoon ausgingen. Andere Infiltrationsversuche wurden mit dem Iran durch Crimson Sandstorm, Nordkorea durch Emerald Spleet und Russland durch Forest Blizzard in Verbindung gebracht. Laut OpenAI versuchten die Gruppen, GPT-4 für verschiedene Aufgaben zu nutzen, die von der Recherche von Unternehmens- und Cybersicherheitstools, der Erstellung von Skripten, dem Debuggen von Codes, der Orchestrierung von Phishing-Kampagnen, der Umgehung der Malware-Erkennung, der Übersetzung komplexer technischer Papiere und der Erforschung von Satellitenkommunikation und Radartechnologie reichten. Die Aufdeckung dieser Aktivitäten führte zur Sperrung der betroffenen Konten. Diese Entdeckung kam zu einem Zeitpunkt, an dem OpenAI ein umfassendes Verbot der Verwendung von KI-Produkten durch staatlich geförderte Hacking-Netzwerke verhängen wollte. Obwohl es dem Unternehmen gelang, diese spezifischen Versuche zu vereiteln, erkannte es die anhaltende Schwierigkeit, jeden potenziellen Missbrauch zu verhindern. Nach der Einführung von ChatGPT hat der Gesetzgeber die Überwachung von generativen KI-Entwicklern verstärkt. Um Fortschritte auf dem Gebiet der KI-Cybersicherheit zu unterstützen, kündigte OpenAI im Juni 2023 ein Förderprogramm in Höhe von 1 Million US-Dollar an, das darauf abzielt, den Einfluss von KI-basierten Cybersicherheitslösungen zu stärken und zu quantifizieren. Trotz dieser Abwehrmaßnahmen und der kontinuierlichen Bemühungen, die Generierung schädlicher oder ungeeigneter Inhalte durch ChatGPT zu vermeiden, haben Hacker immer noch Wege gefunden, diese Barrieren auszumanövrieren, indem sie den Chatbot manipulieren, um solche Inhalte zu generieren. Über 200 Organisationen, darunter OpenAI, Microsoft, Anthropic und Google, haben sich kürzlich mit der Biden-Regierung zusammengetan, um das AI Safety Institute und das U.S. AI Safety Institute Consortium (AISIC) zu gründen. Das gemeinsame Unterfangen zielt darauf ab, die sichere Entwicklung künstlicher Intelligenz zu fördern, KI-produzierten Deepfakes entgegenzuwirken und sich den Herausforderungen der Cybersicherheit zu stellen. Diese Initiative folgt auf die Gründung des U.S. AI Safety Institute (USAISI), das nach der Verordnung von Präsident Joe Biden Ende Oktober 2023 gegründet wurde, die sich auf die Sicherheit von KI konzentriert.

Published At

2/15/2024 11:46:18 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch