Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

NIST busca contribuições públicas sobre o desenvolvimento seguro e ético de sistemas de IA

Algoine News
Summary:
O Instituto Nacional de Padrões e Tecnologia (NIST) emitiu um Pedido de Informação (RFI) para reunir informações públicas sobre o desenvolvimento seguro e a aplicação de inteligência artificial (IA). Sob a direção da Ordem Executiva do presidente Biden, o NIST está buscando insights sobre o gerenciamento de risco da IA generativa e maneiras de diminuir a desinformação gerada pela IA. O instituto também está investigando áreas efetivas para red-teaming - uma estratégia usada para identificar vulnerabilidades do sistema. O pedido faz parte de uma iniciativa mais ampla do NIST para apoiar a comunidade de IA para o desenvolvimento responsável e confiável de sistemas de IA, aumentando a abordagem centrada no ser humano em relação à segurança e governança de IA.
O Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA emitiu um Pedido de Informação (RFI) como parte de suas funções sob a mais recente Ordem Executiva sobre o desenvolvimento e a implementação seguros e éticos da inteligência artificial (IA). O instituto abriu um processo de entrada pública até 2 de fevereiro para reunir insights cruciais a serem usados para testar a segurança de sistemas de IA. A secretária de Comércio, Gina Raimondo, mencionou que a diretiva executiva de outubro do presidente Joe Biden, que instrui o NIST a desenvolver diretrizes, incentivar padrões consensuais e construir ambientes de teste para avaliação de IA, motiva essa iniciativa. Este plano visa ajudar o setor de IA no desenvolvimento seguro, confiável e ético da IA. O pedido de informações do NIST convida as empresas de IA e o público a obter insights sobre o gerenciamento de risco da IA generativa e a redução dos riscos de desinformação induzidos por IA. A IA generativa, que pode criar textos, imagens e vídeos com base em prompts ambíguos, gerou excitação e preocupações. Há temores sobre a perda de empregos, distúrbios nas eleições e o potencial da tecnologia excedendo a competência humana, o que pode gerar resultados desastrosos. A RFI também busca informações sobre as áreas ideais para executar red-teaming durante o exame de risco de IA e estabelecer as melhores práticas. O termo "red-teaming", derivado de simulações da Guerra Fria, é usado para se referir a um método em que um grupo, conhecido como "equipe vermelha", imita situações ou ataques adversários imagináveis para descobrir os pontos fracos e vulnerabilidades de um sistema, processo ou organização. Essa técnica tem sido usada há muito tempo em segurança cibernética para detectar novas ameaças. Uma nota relacionada é que o primeiro evento público de red-teaming nos EUA ocorreu em agosto em uma conferência de segurança cibernética organizada pela AI Village, SeedAI e Humane Intelligence. O anúncio de um novo consórcio de IA pelo NIST em novembro, juntamente com um aviso oficial chamando para candidaturas com qualificações relevantes, foi um marco importante. O objetivo deste consórcio é desenvolver e executar políticas e medidas específicas para garantir que os formuladores de políticas dos EUA optem por uma abordagem centrada no ser humano para a segurança e administração de IA.

Published At

12/20/2023 11:46:51 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch