Live Chat

Crypto News

Cryptocurrency News 5 months ago
ENTRESRUARPTDEFRZHHIIT

Especialistas em IA se unem por proteções aprimoradas de denunciantes em meio a preocupações com a segurança

Algoine News
Summary:
Ex-funcionários de empresas proeminentes de IA estão defendendo proteções mais fortes aos denunciantes para permitir que as preocupações relacionadas ao risco sobre o desenvolvimento de IA sejam expressas abertamente. A petição "Direito de Avisar a IA" visa promover uma abertura que acolha críticas e forneça proteção legal para denunciantes que destacam riscos graves de IA. A campanha reflete as crescentes apreensões em relação às medidas de segurança dos novos modelos de IA, especialmente aqueles que envolvem inteligência artificial geral.
Ex-funcionários de empresas proeminentes de IA estão defendendo salvaguardas mais fortes para denunciantes dentro dessas empresas, para promover a transparência sobre riscos potenciais na evolução de sistemas complexos de IA. Uma petição, intitulada "Direito de Avisar IA" foi iniciada em 4 de junho por 13 ex-profissionais da OpenAI (ChatGPT), Anthropic (Claude) e DeepMind (Google). Este grupo ilustre também incluía luminares da IA como Yoshua Bengio, Geoffrey Hinton e Stuart Russell. Seu objetivo é convencer as principais empresas de IA a permitir que seus funcionários compartilhem apreensões sobre os riscos de IA internamente e com o público em geral. William Saunders, ex-funcionário da OpenAI e apoiador da campanha, afirmou que é imperativo ter um mecanismo para divulgar informações de risco a especialistas independentes, autoridades governamentais e o público em geral ao lidar com potenciais inovações tecnológicas perigosas. Ele observou que, no momento, aqueles com a compreensão mais profunda dos sistemas de IA de fronteira e riscos associados podem hesitar em expressar seus temores devido ao medo de reação e contratos de confidencialidade rigorosos. A proposta vem com quatro sugestões principais. O primeiro é revogar cláusulas de não depreciação relacionadas a riscos para que as empresas não possam amordaçar os funcionários ou penalizá-los por expressarem preocupações sobre os riscos de IA. Em seguida, eles propõem a criação de canais anônimos para que os indivíduos expressem suas preocupações em relação aos riscos da IA, promovendo assim uma atmosfera que acolha críticas abertas. Seu apelo final é por proteção legal para denunciantes, garantindo que as empresas não retaliem contra funcionários que correm o risco de exposição a sérios riscos de IA. Saunders descreveu esses princípios como uma "abordagem proativa" que incentivará as empresas de IA a criar IA que não seja apenas benéfica, mas também segura. A campanha é um derivado das crescentes apreensões sobre como os laboratórios de IA têm negligenciado as medidas de segurança ao desenvolver seus novos modelos, particularmente ao lidar com inteligência artificial geral (AGI), que visa desenvolver software que imita a inteligência humana e pode aprender de forma independente. Daniel Kokotajlo, um ex-funcionário da OpenAI, compartilhou sua decisão de deixar a empresa decorrente de sua perda de fé no tratamento responsável da empresa dos propósitos da AGI. Kokotajlo opinou que a abordagem cultural "mover rápido e quebrar coisas" é incompatível com a tecnologia que é tão potente e tão incompreendida quanto a AGI. Helen Toner, ex-diretora da OpenAI, revelou em um podcast do Ted AI em 28 de maio que Sam Altman, o CEO da OpenAI, foi demitido da empresa por reter informações críticas do conselho.

Published At

6/4/2024 4:59:35 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch