Cofundador da Ethereum, Vitalik Buterin, pede prudência na fusão de IA com Blockchain
Summary:
Vitalik Buterin, cofundador da Ethereum, aconselha os desenvolvedores a procederem com cautela ao combinar IA e tecnologia blockchain, particularmente em contextos de alto risco e alto valor, como mercados de previsão ou stablecoins. Ele acredita que o uso de IA em mecanismos como mercados de previsão e interfaces de carteira cripto pode ser benéfico, mas adverte contra depender apenas de interfaces de IA devido a potenciais riscos de erro. Buterin também alerta que os modelos de IA de código aberto, embora ofereçam flexibilidade, são propensos a ataques, enquanto os modelos de IA de código fechado carecem de transparência. Desenvolver uma IA descentralizada que outros aplicativos possam usar é o principal desafio, conclui Buterin.
Vitalik Buterin, cofundador da Ethereum, emitiu uma mensagem de advertência aos desenvolvedores que fundem inteligência artificial (IA) com a tecnologia blockchain. Em um post de blog datado de 30 de janeiro, Buterin revelou suas apreensões predominantes sobre IA, aconselhando os desenvolvedores a trilhar com sabedoria, particularmente ao introduzir novos aplicativos em contextos onde alto risco e alto valor estão envolvidos. Ele elucidou: "É necessário cuidado excessivo se alguém desenvolve, por exemplo, uma stablecoin ou um mercado de previsão utilizando um oráculo de IA. Se o oráculo se mostrar suscetível a ataques, uma grande soma de dinheiro pode desaparecer quase instantaneamente."
Buterin explicou ainda que a área em que a IA demonstrou maior viabilidade foi sua capacidade de se envolver em mecanismos como mercados de previsão em microescala – uma tarefa que seria impossível para os seres humanos. A IA também pode encontrar aplicação para tornar as interfaces de carteira cripto amigáveis, explicando transações, verificando assinaturas ou identificando golpes. Buterin, no entanto, alertou que o uso de apenas interfaces de IA pode ser potencialmente perigoso porque a chance de encontrar outros tipos de erros aumentaria, embora a IA complementando uma interface convencional esteja se tornando cada vez mais uma ideia plausível.
Buterin acredita que o cenário mais arriscado seria utilizar a IA para impor as regras ou a governança dos sistemas cripto. Os modelos de IA de código aberto são vulneráveis a ataques adversários, pois indivíduos mal-intencionados podem examinar seu código e personalizar ataques contra eles. Embora a IA de código fechado forneça um certo grau de segurança por meio da ambiguidade, ela não fornece nenhuma visão sobre seu funcionamento ou garante que seja imparcial, acrescentou Buterin.
A startup cripto Worldcoin, relacionada à OpenAI, operando com IA de código fechado, é um exemplo disso. Buterin esclarece que esta startup se baseia na ideia de evitar qualquer chamada simples no modelo de IA e opta por hardware confiável. Buterin afirmou que a criação de uma IA descentralizada usando criptografia e blockchain que outros aplicativos poderiam usar representou o desafio mais formidável. A implementação de técnicas criptográficas e blockchains para construir uma IA única, descentralizada e confiável para algumas aplicações dependerem para um objetivo específico apresenta funcionalidades prospectivas e oportunidades para avançar na segurança da IA, contornando o risco de centralização associado a soluções convencionais para o mesmo problema. Buterin concluiu que as presunções fundamentais subjacentes a esses pedidos poderiam falhar de várias maneiras.
Published At
1/31/2024 7:21:15 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.