Governos em todo o mundo lutam para regular a evolução da tecnologia de IA generativa
Summary:
À medida que o desenvolvimento da tecnologia de IA generativa avança em um ritmo rápido, governos em todo o mundo estão correndo para implementar regulamentações. A UE lançou a primeira legislação abrangente de IA, afetando 27 Estados-membros, enquanto países como EUA, Reino Unido, China e alianças como o G7 estão acelerando suas precauções regulatórias. Em meio a possíveis temores de uso indevido, a Austrália buscou sugestões sobre o gerenciamento de ferramentas de IA de "alto risco". Enquanto isso, a China instituiu regulamentos temporários, exigindo que os provedores de IA garantam a autorização após avaliações de segurança. Globalmente, os países estão defendendo modelos "seguros por design" para proteger a IA de adulterações.
O rápido desenvolvimento da tecnologia de IA generativa incitou uma disputa mundial à medida que os governos se apressam para promulgar regulamentações para essa nova fronteira tecnológica. Isso reflete as iniciativas da União Europeia para colocar em prática a primeira legislação abrangente de inteligência artificial globalmente. A Lei de IA, que incorpora todos os 27 Estados-membros, representa uma estrutura regulatória inovadora. A partir de 7 de dezembro, os negociadores estabeleceram um conjunto de freios e contrapesos relativos a ferramentas de IA generativas, como o ChatGPT, da OpenAI Inc, e o Bard, do Google, após um longo período de negociação.
O potencial de uso indevido dessa tecnologia também estimulou a busca por medidas regulatórias em países como EUA, Reino Unido, China e alianças internacionais como o G7, todos ansiosos para acompanhar os avanços rápidos e progressivos da IA.
Em junho, o governo australiano abordou a situação iniciando uma investigação de oito semanas sobre a necessidade de restrições a quaisquer ferramentas de IA de "alto risco". Esse período de consulta foi prorrogado até 26 de julho. A intenção aqui era coletar feedback sobre maneiras de incentivar a aplicação segura e responsável da IA. O governo explorou várias soluções que vão desde medidas voluntárias, como estruturas éticas, até regulamentações específicas, ou uma combinação de ambas.
Em um conjunto de regulamentos temporários instituídos em 15 de agosto, a China anunciou medidas de supervisão para a indústria de IA generativa. Essas regras exigem que os provedores de serviços de IA passem por avaliações de segurança e recebam aprovação antes de lançar produtos de IA para consumo público. Em 31 de agosto, quatro empresas chinesas líderes de tecnologia – incluindo Baidu Inc e SenseTime Group – apresentaram seus chatbots de IA ao público, tendo garantido as permissões governamentais necessárias.
Em notícias relacionadas, foi relatado que o órgão de vigilância da privacidade da França, CNIL, lançou uma investigação em abril após inúmeras reclamações sobre o ChatGPT. Isso ocorreu após uma breve proibição do chatbot na Itália, por suspeita de violação de privacidade. Também foi observado um desconhecimento dos alertas emitidos por grupos de direitos humanos. Em 22 de novembro, a Autoridade de Proteção de Dados da Itália, um regulador doméstico de privacidade, iniciou uma investigação de coleta de evidências examinando métodos de coleta de dados usados para treinar algoritmos de IA.
Este inquérito visa verificar a aplicação de medidas de segurança adequadas em sites públicos e privados para evitar a 'web scraping' de dados pessoais, uma prática comum explorada para treinamento de IA por entidades não autorizadas.
Países como Estados Unidos, Reino Unido, Austrália e outros 15 publicaram recentemente diretrizes mundiais promovendo a proteção de modelos de IA contra adulterações. Esta abordagem recomenda vivamente que as empresas tornem os seus modelos "seguros desde a conceção".
Relacionado: Insights sobre como a IA generativa está permitindo que arquitetos reimaginem cidades antigas. Explore também as aplicações reais de IA em criptomoedas: mercados de IA centrados em criptomoedas e o papel da IA na análise financeira.
Published At
12/7/2023 12:55:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.