Live Chat

Crypto News

Cryptocurrency News 1 years ago
ENTRESRUARPTDEFRZHHIIT

Potenziali rischi degli strumenti di intelligenza artificiale (AI) nei contratti intelligenti e nei progetti di criptovaluta discussi durante la Korean Blockchain Week.

Algoine News
Summary:
Gli esperti del settore discutono degli strumenti di intelligenza artificiale come ChatGPT e dei rischi potenziali nella scrittura di smart contract e nei progetti di criptovalute durante la Korean Blockchain Week. Il chief security officer di CertiK mette in guardia sul fatto che ChatGPT potrebbe introdurre più bug di quanti ne identifichi, soprattutto per i programmatori alle prime armi. Inoltre, gli strumenti di intelligenza artificiale stanno diventando sempre più efficaci negli attacchi di ingegneria sociale, rendendo difficile distinguere tra messaggi generati da AI e quelli generati da esseri umani. Si prevede che i miglioramenti del software anti-phishing contribuiranno a mitigare potenziali attacchi nell'industria delle criptovalute.
Gli strumenti di intelligenza artificiale come ChatGPT di OpenAI potrebbero causare significativi problemi, bug e vettori di attacco se utilizzati per scrivere smart contract e sviluppare progetti di criptovalute, avverte il chief security officer di CertiK, Kang Li. Secondo Li, ChatGPT manca della capacità di identificare difetti logici nel codice che gli sviluppatori esperti possono individuare, potenzialmente causando più bug e fallimenti per i programmatori alle prime armi che cercano di creare i propri progetti. Invece, Li suggerisce che ChatGPT dovrebbe essere utilizzata come assistente per gli ingegneri, in quanto eccelle nel spiegare il significato delle linee di codice. Tuttavia, Li avverte di non fare affidamento su di essa per scrivere codice, specialmente per i programmatori inesperti che cercano di creare progetti monetizzabili. Li mantiene le sue affermazioni per almeno i prossimi due o tre anni, riconoscendo i possibili progressi nell'AI che potrebbero migliorare le capacità di ChatGPT. In una dichiarazione separata, Richard Ma, CEO di Quantstamp, una società di sicurezza web3, osserva che gli strumenti di intelligenza artificiale stanno diventando sempre più efficaci negli attacchi di ingegneria sociale, con messaggi generati dall'AI che sono difficili da distinguere da quelli scritti da esseri umani. Ma avverte che con l'avanzare della tecnologia sarà sempre più difficile differenziare tra messaggi malevoli generati dall'AI e comunicazione umana autentica. Questo rappresenta un rischio particolare per l'industria delle criptovalute, dove gli hacker possono sfruttare informazioni di contatto facilmente disponibili e utilizzare l'AI per impersonare individui chiave. Tuttavia, Ma ritiene che un miglioramento del software anti-phishing possa contribuire a mitigare potenziali attacchi.

Published At

9/6/2023 2:50:24 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch