Yann LeCun desacredita la exageración de la IA: la IA a nivel humano no es inminente, la IA de código abierto no es una amenaza
Summary:
El científico jefe de IA de Meta, Yann LeCun, descarta la idea de que los modelos de aprendizaje de idiomas (LLM) como ChatGPT y Claude pronto alcancen una IA equivalente a la humana. En una entrevista, no estuvo de acuerdo con el enfoque AGI (Inteligencia General Artificial) de Mark Zuckerberg, prefiriendo el término "IA a nivel humano". Además, restó importancia a los temores de que las IA de código abierto pongan en peligro a la humanidad, afirmando que cualquier "IA destructiva" sería eliminada por IA más inteligentes y benignas.
Yann LeCun, científico jefe de IA de Meta, expresó recientemente su opinión de que los modelos de lenguaje de alta capacidad (LLM), incluidos ChatGPT y Claude, no están a punto de lograr una inteligencia artificial (IA) equivalente a la humana. En una entrevista con la revista Time, LeCun habló sobre el concepto de inteligencia artificial general (AGI, por sus siglas en inglés), un término ambiguo que se refiere a una hipotética IA capaz de manejar cualquier tarea si se le dan los recursos suficientes. No existe un acuerdo entre los científicos con respecto a los criterios que una IA tendría que cumplir para calificar como AGI. Sin embargo, Mark Zuckerberg, CEO y fundador de Meta, sorprendió cuando reveló que Meta cambió su enfoque hacia el desarrollo de AGI. Zuckerberg aclaró en una entrevista con The Verge que el objetivo era construir "inteligencia general" para facilitar los productos que planeaban crear.
Si bien Zuckerberg extiende su enfoque a AGI, una discrepancia parecía haber entre él y LeCun, específicamente, en términos de terminología. En su diálogo con Time, LeCun expresó su disgusto por el término "AGI", favoreciendo en su lugar la "IA a nivel humano", señalando que los humanos en sí mismos no encarnan una inteligencia general completa. Con respecto a los LLM, una rama de la IA que incluye LLama-2 de Meta, ChatGPT de OpenAI y Gemini de Google, la postura de LeCun es que dichos modelos no se acercan al nivel de inteligencia de un gato, y mucho menos de los humanos. Las tareas que realizamos repetidamente sin pensarlo dos veces resultan muy complejas para que las computadoras las repliquen, lo que hace que la AGI o la IA a nivel humano no sea una perspectiva inmediata, sino más bien un objetivo a largo plazo que exige avances conceptuales significativos.
LeCun también reflexionó sobre el debate existente sobre si los sistemas de IA de código abierto, como LLama-2 de Meta, podrían poner en peligro a la humanidad. Rechazó decididamente la idea de que la IA represente un peligro sustancial. En respuesta a la situación hipotética de un humano que busca el dominio programando tales intenciones en una IA, el argumento de LeCun fue que si tales "IA destructivas" existían, también existirían "IA más inteligentes y benévolas" capaces de neutralizarlas. En noticias relacionadas, se señaló que el valor total de Bitcoin está a punto de superar al de Meta, ya que la criptomoneda continúa con una tendencia al alza.
Published At
2/14/2024 7:22:51 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.