Potenzielle Risiken von KI-Werkzeugen in Smart Contracts und Kryptowährungsprojekten wurden bei der Korean Blockchain Week diskutiert.
Summary:
Künstliche Intelligenz-Tools wie ChatGPT und ihre potenziellen Risiken beim Schreiben von Smart Contracts und Kryptowährungsprojekten werden von Branchenexperten auf der Korean Blockchain Week diskutiert. Der Chief Security Officer von CertiK warnt davor, dass ChatGPT möglicherweise mehr Bugs einführt, als es identifiziert, insbesondere für Anfänger im Programmieren. Darüber hinaus werden KI-Tools zunehmend erfolgreich bei Social Engineering-Angriffen eingesetzt, was die Unterscheidung zwischen AI-generierten und menschlichen Nachrichten erschwert. Es wird erwartet, dass verbesserte Anti-Phishing-Software helfen wird, potenzielle Angriffe in der Kryptoindustrie einzudämmen.
Künstliche Intelligenz-Tools wie ChatGPT von OpenAI könnten erhebliche Probleme, Fehler und Angriffsvektoren darstellen, wenn sie für das Schreiben intelligenter Verträge und die Entwicklung von Kryptowährungsprojekten verwendet werden, warnt Kang Li, der leitende Sicherheitsbeauftragte von CertiK. Laut Li ist ChatGPT nicht in der Lage, logische Codefehler zu identifizieren, wie es erfahrene Entwickler können. Dies kann zu mehr Fehlern und Ausfällen bei weniger erfahrenen Programmierern führen, die versuchen, ihre eigenen Projekte zu erstellen. Li schlägt stattdessen vor, dass ChatGPT als Assistent für Ingenieure verwendet werden sollte, da es sich gut dazu eignet, die Bedeutung von Codezeilen zu erklären. Allerdings warnt Li davor, sich auf ChatGPT zum Schreiben von Code zu verlassen, insbesondere für unerfahrene Programmierer, die monetarisierbare Projekte erstellen möchten. Li steht für die nächsten zwei bis drei Jahre zu seinen Aussagen und erkennt mögliche Fortschritte in der KI an, die die Fähigkeiten von ChatGPT verbessern könnten. In einer separaten Erklärung weist Richard Ma, CEO von Quantstamp, einem Web3-Sicherheitsunternehmen, darauf hin, dass KI-Tools zunehmend effektiv bei Social Engineering-Angriffen sind. KI-generierte Nachrichten sind dabei immer schwieriger von solchen zu unterscheiden, die von Menschen verfasst wurden. Ma warnt davor, dass es mit fortschreitender Technologie schwieriger wird, zwischen bösartigen, KI-generierten Nachrichten und echter menschlicher Kommunikation zu unterscheiden. Dies birgt ein besonderes Risiko für die Kryptoindustrie, in der Hacker leicht verfügbare Kontaktdaten nutzen können und KI einsetzen, um wichtige Personen zu imitieren. Ma ist jedoch der Meinung, dass verbesserte Anti-Phishing-Software dazu beitragen kann, potenzielle Angriffe zu bekämpfen.
Published At
9/6/2023 2:50:24 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.