Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI lanza una iniciativa de "preparación" para abordar los riesgos relacionados con la IA y mitigar las posibles amenazas

Algoine News
Summary:
OpenAI está lanzando una iniciativa llamada "Preparación" para evaluar y mitigar los riesgos de amplio rango asociados con la IA. La iniciativa se centrará en las posibles amenazas de la IA, incluidas las amenazas químicas, biológicas, radiológicas y nucleares, la persuasión individual, la ciberseguridad y la replicación autónoma. Dirigido por Aleksander Madry, el equipo investigará los peligros del uso indebido de los sistemas de IA de frontera. OpenAI también ha lanzado un Desafío de Preparación para la IA para la prevención catastrófica del uso indebido, con USD 25,000 en créditos API que se otorgarán a las mejores presentaciones.
OpenAI, la empresa responsable del desarrollo de tecnología de IA como ChatGPT, está lanzando un proyecto destinado a evaluar varios peligros potenciales asociados con la IA. Revelado el 25 de octubre, OpenAI ahora está estructurando un equipo único cuyo enfoque principal será estudiar, predecir y mitigar los posibles peligros abrumadores que podrían surgir del uso de la tecnología de IA. Este equipo, llamado "Preparación", prestará mucha atención a los posibles riesgos de la IA, incluidas las amenazas químicas, biológicas, radiológicas y nucleares, la persuasión individual, la ciberseguridad y la replicación y adaptaciones espontáneas. El equipo, guiado por Aleksander Madry, tiene la tarea de comprender cuestiones críticas como el nivel de peligro que puede suponer un sistema avanzado de IA cuando se utiliza de forma inadecuada o si, en caso de robo, podría ser desplegado por elementos dañinos. "Los modelos de IA de frontera", compartió OpenAI, "tienen el potencial de ser beneficiosos para la humanidad global". Igualmente, sostuvieron que estos modelos de IA también podrían plantear "riesgos cada vez más graves". Al exponer los puntos de vista de la compañía, OpenAI declaró: "Reconocemos y consideramos seriamente todas las formas de riesgos de seguridad asociados con la IA, desde los sistemas actuales hasta los extremos de la superinteligencia... Para garantizar la seguridad de los sistemas de IA de alta capacidad, estamos refinando nuestro enfoque para hacer frente a la preparación para riesgos catastróficos". Además de crear la nueva división, OpenAI está lanzando un desafío destinado a prevenir el uso indebido catastrófico de la IA, prometiendo $ 25,000 en créditos API a las 10 mejores presentaciones. La firma también anunció que está buscando talentos de diversos antecedentes técnicos para formar parte del equipo de preparación. OpenAI había insinuado anteriormente la creación de un equipo centrado en abordar los posibles peligros de la IA en julio de 2023. Tradicionalmente, a menudo se señalan los peligros potenciales asociados con la inteligencia artificial, lo que genera preocupaciones de que estos sistemas de IA puedan algún día superar la inteligencia humana. A pesar de estos temores, empresas como OpenAI han buscado activamente el desarrollo de nuevas tecnologías de IA, lo que sin darse cuenta genera más sospechas y ansiedad. En un desarrollo comparable, el Centro para la Seguridad de la IA, una organización sin fines de lucro, publicó en mayo de 2023 una carta abierta en la que enfatizaba el riesgo de la IA. El centro cree que los riesgos que plantea la IA deben abordarse seriamente a escala global, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.

Published At

10/27/2023 10:03:56 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch