Live Chat

Crypto News

Cryptocurrency News 9 months ago
ENTRESRUARPTDEFRZHHIIT

Copiloto de chatbot de IA da Microsoft implicado na disseminação de informações políticas enganosas

Algoine News
Summary:
Um relatório das organizações sem fins lucrativos europeias AI Forensics e AlgorithmWatch sugere que o chatbot de IA da Microsoft, Copilot, dissemina e cita incorretamente informações eleitorais. O bot respondeu erroneamente a 30% das perguntas básicas sobre eleições políticas em um estudo, possivelmente levando à desinformação. As imprecisões não se limitam ao Copilot; testes preliminares revelaram achados semelhantes no Chat-GPT4. Embora ainda não tenham influenciado os resultados, eles podem afetar a compreensão e a confiança do público. As salvaguardas da IA também se esquivam inconsistentemente de perguntas. A Microsoft pretende resolver problemas antes das eleições americanas de 2024.
Uma pesquisa conduzida por dois grupos sem fins lucrativos com sede na Europa sugere que o chatbot de IA rebatizado da Microsoft, o Copilot, anteriormente conhecido como Bing, gera descobertas errôneas sobre informações eleitorais e cita incorretamente suas fontes. A AI Forensics e a AlgorithmWatch divulgaram o estudo em 15 de dezembro, indicando que 30% das respostas do chatbot de IA do Bing a perguntas rudimentares sobre eleições políticas na Alemanha e na Suíça estavam incorretas. Esses erros nas respostas tocaram em vários assuntos, como candidatos, pesquisas de opinião, controvérsias e processos de votação. Perguntas sobre as eleições presidenciais americanas de 2024 também receberam respostas falhas. Os pesquisadores escolheram o chatbot de IA do Bing para seu estudo, pois estava entre os chatbots de IA pioneiros a incorporar fontes em suas respostas, acrescentando que essas imprecisões não eram exclusivas do Bing. Testes preliminares no Chat-GPT4 também revelaram inconsistências, relataram. As organizações de caridade enfatizaram que as informações errôneas ainda não afetaram os resultados das eleições, mas podem gerar mal-entendidos e desinformação pública. O comunicado alertou: "A crescente prevalência da IA generativa pode ameaçar um pilar fundamental da democracia: o fornecimento de informações públicas confiáveis e transparentes". A pesquisa também descobriu que as proteções embutidas no chatbot de IA não eram uniformemente eficazes, levando-o a se esquivar de perguntas em 40% das vezes. Em resposta a um artigo do Wall Street Journal sobre o relatório, a Microsoft se comprometeu a corrigir os problemas antes das eleições de 2024 nos Estados Unidos. Um porta-voz da Microsoft aconselhou os usuários a garantir a precisão das informações obtidas com chatbots de IA em todos os momentos. Em outubro deste ano, senadores americanos apresentaram um projeto de lei que penaliza criadores de duplicatas artificiais não autorizadas de pessoas reais – vivas ou falecidas. A Meta, controladora do Facebook e do Instagram, emitiu uma diretriz em novembro que proíbe o uso de ferramentas de IA generativa para a criação de anúncios por anunciantes políticos como uma salvaguarda contra futuras eleições.

Published At

12/15/2023 5:57:01 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch