Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

Le cofondateur d’OpenAI prévoit de lutter contre la pénurie mondiale de puces : une poussée en faveur d’une IA responsable est nécessaire

Algoine News
Summary:
Le cofondateur d’OpenAI, Sam Altman, prévoit de lever 7 000 milliards de dollars pour un projet ciblant la pénurie mondiale dramatique de puces semi-conductrices, principalement due à la demande croissante de GenAI. Cependant, l’investissement substantiel proposé a suscité des débats sur l’éthique, les implications et les responsabilités de l’infrastructure d’IA en plein essor. Bien que l’IA ait le potentiel d’apporter des avantages sociétaux, les risques, notamment les biais algorithmiques, la confidentialité des données et la consommation d’énergie, nécessitent une attention urgente. L’administration Biden et l’Union européenne ont toutes deux plaidé en faveur d’une IA responsable, en insistant sur la nécessité de la sûreté, de la sécurité et de la fiabilité. Par conséquent, face à une telle mise à l’échelle massive des systèmes d’IA, la mise en œuvre d’une IA responsable est cruciale.
Le cofondateur d’OpenAI, Sam Altman, chercherait à lever une somme prodigieuse de 7 000 milliards de dollars pour une entreprise visant à s’attaquer au déficit mondial prononcé de puces à semi-conducteurs, un problème exacerbé par l’augmentation de la demande de GenAI. Ce projet ambitieux a un objectif beaucoup plus large, selon Altman, qui a déclaré : « Ce monde nécessite plus d’infrastructures d’IA que celles actuellement proposées pour la construction. La construction d’une infrastructure d’IA à une échelle colossale, associée à une chaîne d’approvisionnement résiliente, fait partie intégrante de la compétitivité économique. OpenAI a à cœur d’y contribuer ! Si cet investissement massif implique que toutes les structures s’orientent vers la GenAI, l’objectif est d’atteindre l’intelligence artificielle générale, des systèmes qui dépassent l’intelligence humaine, un sujet controversé. À lire également : Le bitcoin pourrait être réduit à 30 000 $, et ce n’est pas mal. Vous devez vous demander pourquoi nous avons besoin d’une mise à l’échelle aussi massive de l’infrastructure d’IA. « Vous pouvez soit contribuer à assurer notre avenir commun, soit créer un discours sur les raisons pour lesquelles nous échouerons », a également partagé Altman dans un post ultérieur. Cette entreprise est-elle vraiment dédiée à la préservation de notre avenir collectif ? Ou vise-t-il spécifiquement à assurer l’avenir d’OpenAI ? OpenAI s’appuie actuellement sur Microsoft pour plus de capacité de traitement et des centres de données supplémentaires afin de surmonter ses restrictions de croissance, en particulier la pénurie de puces qui empêche la formation de grands modèles de langage (LLM) comme ChatGPT. La quantité scandaleuse de capitaux recherchés – qui dépasse le PIB de tous les pays, à l’exception des États-Unis et de la Chine – soulève certaines questions éthiques sur la demande d’Altman. La technologie est une arme à double tranchant ; L’IA a le potentiel d’apporter d’immenses avantages sociétaux, ses dommages et préjudices possibles sont tout aussi profonds. En tant que société, nous devons insister sur l’IA et l’innovation responsables. L’innovation responsable doit faire en sorte que les nouvelles technologies apportent plus de solutions que de problèmes à la société. Cette idée s’applique à toutes les technologies, innovations dans tous les secteurs, toutes les régions et toutes les organisations. Avant de faire évoluer les systèmes d’IA, ne devrions-nous pas nous attaquer aux risques et aux défis qu’ils présentent, en contrôlant et en réduisant leurs risques, en veillant à ce qu’ils n’aggravent pas les problèmes plus que les solutions ? Les systèmes d’IA sont pilotés par des données et GenAI en nécessitera de grandes quantités. Cette forte dépendance à l’égard des données comporte des risques et des défis importants. Des données incorrectes ou obsolètes peuvent conduire à des résultats trompeurs - un problème qui est amplifié dans le monde des LLM lorsqu’ils traitent des informations médiocres. De plus, l’un des principaux problèmes des systèmes d’IA est le biais algorithmique, qui entraîne souvent une discrimination. Cette question n’est toujours pas résolue malgré plusieurs demandes des législateurs pour y remédier. GenAI présente ses propres problèmes : hallucinations, désinformation, manque de clarification, escroqueries, violation du droit d’auteur, violation de la vie privée et sécurité des données. Tous ces problèmes n’ont pas été correctement reconnus et atténués. Il y a aussi la vaste consommation d’énergie de l’IA qui alimente les ordinateurs et les centres de données. L’Agence internationale de l’énergie prévoit que la demande mondiale d’électricité, stimulée par la croissance de l’IA, doublera d’ici 2026. L’administration Biden et l’Union européenne plaident en faveur d’une IA responsable, sûre, sécurisée et digne de confiance. Le décret du président Joe Biden signé en septembre exigeait que les entreprises développent des outils d’IA pour tracer et rectifier les vulnérabilités en matière de cybersécurité, appliquer des techniques de préservation de la vie privée, protéger les consommateurs, les employés et les étudiants. Il a mis l’accent sur l’importance de traiter la discrimination par biais algorithmique tout au long du développement et de la formation de ces systèmes. En juillet 2023, OpenAI a accepté de travailler sur les risques posés par l’IA et d’adhérer à une IA responsable avec l’administration Biden. Cependant, les actions d’OpenAI dans le domaine de l’IA responsable ont été insignifiantes jusqu’à présent. À l’instar de l’OE, la loi sur l’IA de l’Union européenne met l’accent sur la transparence de la documentation et de l’audit de développement en aval, en grande partie pour les modèles de fondation et GenAI. À l’heure actuelle, les systèmes d’IA ne disposent pas d’un moyen de fournir ces informations et il existe un besoin d’IA responsable vérifiable. Avec toutes ces considérations, il serait prudent de mettre en œuvre une IA responsable avant de mettre ces systèmes à l’échelle radicalement. L’innovation responsable et la garantie que les systèmes d’IA sont sûrs, sécurisés et dignes de confiance assureront notre avenir commun. Ce n’est peut-être pas la méthode de Sam Altman, mais c’est certainement la bonne voie.

Published At

2/21/2024 9:57:29 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch