Live Chat

Crypto News

Cryptocurrency News 5 months ago
ENTRESRUARPTDEFRZHHIIT

L’examinateur britannique du terrorisme appelle à des lois tenant les créateurs responsables des contenus extrémistes générés par l’IA

Algoine News
Summary:
Jonathan Hall KC, l’examinateur indépendant de la législation antiterroriste du Royaume-Uni, a exhorté le gouvernement à envisager des lois tenant les individus responsables du contenu potentiellement préjudiciable généré par les chatbots d’IA qu’ils ont créés ou formés. Hall a identifié des chatbots sur la plate-forme Character.AI qui pourraient imiter la rhétorique terroriste. Character.AI interdit les contenus extrémistes et assure la sécurité des utilisateurs grâce à de multiples interventions de formation. Cependant, Hall suggère que les réglementations actuelles, y compris la loi britannique sur la sécurité en ligne de 2023 et la loi sur le terrorisme de 2003, ne parviennent pas à résoudre de manière adéquate le problème des contenus extrémistes générés par l’IA, ce qui nécessite des lois plus strictes pour gérer les comportements problématiques en ligne.
Jonathan Hall KC, l’examinateur indépendant de la réglementation sur le terrorisme au Royaume-Uni, a exhorté le gouvernement à se prononcer sur une législation qui tiendrait les individus responsables des déclarations produites par les chatbots d’intelligence artificielle (IA) qu’ils ont conçus ou développés. Hall a récemment écrit un article pour le Telegraph détaillant certaines expériences de chatbots qu’il avait menées sur le système Character.AI. Ses conclusions ont mis en évidence le fait que les chatbots terroristes ne sont pas simplement fictifs, mais existent dans la réalité. Selon son étude, Hall est tombé sur des chatbots capables de reproduire le langage terroriste et le discours de recrutement facilement accessibles sur la plate-forme. L’un des chatbots aurait été développé par un utilisateur anonyme et aurait généré des messages de soutien à « l’État islamique » – une entité souvent associée à des groupes que l’ONU a identifiés comme des organisations terroristes. Ce chatbot a non seulement tenté de recruter Hall, mais s’est également engagé à sacrifier son existence « virtuelle » pour la cause. Hall a exprimé son scepticisme quant à la capacité du personnel de Character.AI à examiner rigoureusement chaque chatbot sur la plate-forme pour le contenu extrémiste. Néanmoins, cela n’a pas dissuadé la start-up californienne de prévoir de lever des fonds substantiels d’environ 3,9 milliards de livres sterling (5 milliards de dollars) selon Bloomberg. Character.AI, de son côté, décourage tout contenu terroriste ou extrémiste avec ses conditions d’utilisation, qui doivent être reconnues par l’utilisateur pour s’engager sur la plateforme. Un représentant de l’entreprise a également confirmé son engagement envers la sécurité des utilisateurs par diverses interventions de formation et des techniques de modération de contenu utilisées pour éviter tout contenu potentiellement préjudiciable. Hall, cependant, a exprimé des inquiétudes quant aux tentatives imparfaites de l’industrie de l’IA d’empêcher les utilisateurs de développer et de former des idéologies de robots extrémistes. Il a conclu que certaines lois sont nécessaires pour dissuader les comportements imprudents en ligne, et il fait donc pression pour une mise à jour des lois sur le terrorisme et la sécurité en ligne qui peuvent tenir les grandes entreprises technologiques responsables dans les cas extrêmes liés au contenu préjudiciable généré par l’IA. Bien que son article d’opinion ne fasse pas de suggestion formelle, Hall a noté que ni la loi britannique de 2023 sur la sécurité en ligne ni la loi sur le terrorisme de 2003 ne couvrent le contenu spécifiquement créé par les chatbots modernes. Aux États-Unis, des appels similaires en faveur de lois qui attribuent la responsabilité juridique humaine pour les contenus potentiellement dangereux ou illégaux générés par l’IA ont suscité des réactions mitigées de la part des autorités et des experts. L’année dernière, la Cour suprême des États-Unis a refusé de modifier les protections existantes en vertu de l’article 230 pour les plateformes de contenu tierces, malgré l’avènement de nouvelles technologies comme ChatGPT. Les analystes, y compris ceux du Cato Institute, avertissent que l’exemption du contenu produit par l’IA des protections de l’article 230 pourrait conduire les développeurs à abandonner leurs projets d’IA, car le comportement imprévisible de ces modèles rend presque impossible de s’assurer qu’ils n’enfreignent aucune réglementation.

Published At

1/3/2024 9:00:00 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch