Yuval Harari advierte contra la IA descontrolada en las finanzas y pide una regulación sólida
Summary:
El autor e historiador Yuval Noah Harari advirtió sobre la IA no regulada en las finanzas en la Cumbre de Innovación del BPI, sugiriendo que su uso sin control podría tener graves consecuencias. Harari enfatizó la importancia de la comprensión humana en las finanzas, citando la crisis de 2007-2008 como un ejemplo de las repercusiones de los malentendidos. Propuso instituciones más sólidas para mantener la IA comprensible y bajo control para evitar que el poder pase de los humanos a los algoritmos y advirtió sobre el potencial de inestabilidad social tras cualquier interrupción en las relaciones de confianza.
El renombrado autor, filósofo y profesor de historia Yuval Noah Harari advirtió durante la Cumbre de Innovación del Banco de Pagos Internacionales (BPI) que la inteligencia artificial (IA) sin control dentro del sector financiero podría tener graves consecuencias. Sugirió instituciones sólidas como salvaguardas para regular la IA.
Harari enfatizó que la confianza forma la base del sistema financiero. A través de divisas, bonos y otros instrumentos financieros, permitimos la colaboración entre extraños para lograr objetivos mutuos. Criticó las regulaciones financieras actuales por ser incomprensibles para una persona promedio, diciendo: "Posiblemente, solo el 1% de las personas comprenden las complejidades del sistema financiero. ¿Y si este porcentaje cae a cero?"
La crisis financiera mundial de 2007-2008, en su opinión, fue el resultado de innovaciones financieras que los reguladores no comprendieron ni gestionaron adecuadamente.
La inteligencia artificial, señaló Harari, es una forma alienígena de inteligencia en evolución distinta del razonamiento humano. Su capacidad para diseñar instrumentos financieros sofisticados más allá de la imaginación humana podría inclinar la balanza de poder de los reguladores y los políticos a los algoritmos. Las relaciones de confianza podrían pasar de los sistemas de persona a persona a los basados en IA. En caso de crisis financiera, los seres humanos podrían verse obligados a depender de la IA, lo que provocaría una interrupción de la confianza que podría desencadenar inestabilidad social.
Harari hizo hincapié en evitar que la IA se vuelva completamente indiscernible y argumentó que comprenderla y regularla es crucial. Afirmó que el control no debe estar en manos de líderes carismáticos o genios, sino de instituciones sólidas que garanticen la participación humana.
Sin embargo, Harari advirtió que las innovaciones revolucionarias suelen tener éxito después de varios intentos fallidos. Citó el imperialismo, el comunismo y el nazismo como intentos fallidos de construir sociedades industriales, con innumerables bajas. No obstante, la IA puede autogenerar ideas sobre su uso. Por lo tanto, los reguladores deben fomentar una mayor confianza entre las personas para garantizar que los futuros sistemas financieros sean estables y beneficiosos para los humanos.
Published At
5/8/2024 12:49:32 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.