Потенциальные риски использования инструментов ИИ в умных контрактах и проектах криптовалюты обсуждены на Корейской неделе блокчейна.
Summary:
Специалисты индустрии на Korean Blockchain Week обсуждают искусственные инструменты интеллекта, такие как ChatGPT и их потенциальные риски в написании смарт-контрактов и проектов с криптовалютой. Главный безопасности офицер CertiK предупреждает, что ChatGPT может вносить больше ошибок, чем обнаружить, особенно для новичков в программировании. Кроме того, инструменты искусственного интеллекта становятся все более успешными в атаках социальной инженерии, что создает сложности в отличии между сообщениями, созданными искусственным интеллектом и человеком. Ожидается, что улучшенное программное обеспечение против фишинга поможет снизить потенциальные атаки в криптоиндустрии.
Искусственные интеллект-инструменты, такие как ChatGPT от OpenAI, могут создавать значительные проблемы в виде ошибок программы и точек атаки, если использовать их для написания умных контрактов и разработки проектов с криптовалютами, предупреждает главный директор по безопасности CertiK Канг Ли. По мнению Ли, ChatGPT не способен определить логические ошибки кода, которые опытные разработчики могут заметить, что может привести к большему количеству ошибок и сбоев для начинающих программистов, строящих собственные проекты. Вместо этого Ли предлагает использовать ChatGPT в качестве помощника для инженеров, поскольку он отлично объясняет смысл строк кода. Тем не менее, Ли предупреждает от полного доверия ему в написании кода, особенно для неопытных программистов, стремящихся создать монетизируемые проекты. Ли подтверждает свои утверждения по крайней мере на ближайшие два-три года, осознавая возможные прогрессивные изменения в сфере искусственного интеллекта, которые могут улучшить возможности ChatGPT. В отдельном заявлении Ричард Ма, глава компании по безопасности web3 Quantstamp, отмечает, что искусственные интеллект-инструменты становятся все более эффективными в социальной инженерии, создавая сообщения, сложно отличимые от написанных людьми. Ма предупреждает, что с развитием технологий будет все сложнее различить злонамеренные сообщения, созданные искусственным интеллектом, и подлинное человеческое общение. Это представляет особую опасность для криптоиндустрии, где злоумышленники могут эксплуатировать доступную контактную информацию и использовать искусственный интеллект для подражания ключевым личностям. Однако Ма считает, что улучшенное программное обеспечение против фишинга может помочь в смягчении возможных атак.
Published At
9/6/2023 2:50:24 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.