Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

Control de la IA dañina: un llamado para mejorar los sistemas respaldados por el gobierno y la gobernanza informática

Algoine News
Summary:
Los investigadores sugieren que el control de la inteligencia artificial (IA) dañina puede requerir una mejora continua de los potentes sistemas de IA respaldados por el gobierno. Su estudio propone la necesidad de controlar el acceso a los recursos vitales de la IA, lo que requiere la implementación de la "gobernanza informática". La restricción efectiva del uso malintencionado de la IA podría requerir la inclusión de "interruptores de apagado" en el hardware, lo que permitiría la terminación remota de las operaciones ilegales. También advierten sobre posibles complicaciones en el control de la computación descentralizada. Los investigadores sugieren que es posible que las sociedades necesiten emplear sabiamente sistemas informáticos más potentes y gobernables para contrarrestar los riesgos emergentes de los sistemas informáticos ingobernables.
El control de la inteligencia artificial (IA) dañina puede residir en la mejora continua de la IA bajo la orientación gubernamental. Esta inferencia es extraída por un grupo de investigadores en su último artículo titulado "Poder de cómputo y luego gobernanza de la inteligencia artificial". El estudio, en el que participaron intelectuales de institutos como OpenAI, Cambridge, Oxford y muchos otros, fue un esfuerzo por explorar los problemas inmediatos y potenciales relacionados con la legislación y el progreso de la IA. El argumento principal del documento destaca la necesidad potencial de controlar el acceso a los sistemas de IA fundamentales en el futuro mediante el control del hardware necesario para operarlos y modelarlos. Como explican los investigadores, los responsables políticos pueden aprovechar la potencia informática para implementar resultados beneficiosos, frenar el desarrollo y el uso irresponsables de la IA y proporcionar visibilidad regulatoria. Aquí, "cómputo" se refiere al hardware vital necesario para el desarrollo de IA, incluidas las GPU y las CPU. Los investigadores recomiendan cortar el acceso a estas fuentes como la forma óptima de evitar posibles daños relacionados con la IA. Esto implica medidas gubernamentales para supervisar la creación, venta y funcionamiento de cualquier hardware crucial para el desarrollo avanzado de la IA. En ciertos aspectos, la "gobernanza de cómputo" ya se está practicando a nivel mundial. Por ejemplo, Estados Unidos restringe la venta de modelos específicos de GPU, comúnmente utilizados en el entrenamiento de IA, a países como China. Según la investigación, restringir efectivamente el uso malévolo de la IA requiere que los fabricantes incluyan "interruptores de apagado" en el hardware. Esta medida permitiría a los gobiernos poner fin a los esfuerzos ilegales de formación en IA a distancia. A pesar de ello, los académicos advierten que tales medidas de gobernanza conllevan riesgos inherentes relacionados con la privacidad, las implicaciones económicas y la concentración de poder. Por ejemplo, el monitoreo de hardware en los EE. UU. podría violar la reciente directriz de la declaración de derechos de IA de la Casa Blanca que garantiza los derechos de protección de datos a los ciudadanos. Además de estas preocupaciones, los investigadores también indican que los avances emergentes en la capacitación "eficiente en la comunicación" podrían dirigirse hacia la computación descentralizada para el modelado, la construcción y la operación. Esta tendencia podría complicar la tarea del gobierno de identificar y desmantelar los aparatos de entrenamiento ilegal. Los investigadores sugieren que esta posibilidad podría no dejar a los gobiernos otra opción que adaptar una estrategia agresiva contra el uso ilegal de la IA. Según su juicio, "la sociedad tendrá que utilizar una computación más poderosa y gobernable de manera oportuna y sabia para desarrollar defensas contra los riesgos emergentes planteados por la computación ingobernable.

Published At

2/16/2024 10:12:59 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch