Blockchain kann die AGI-Technologie vor der Monopolisierung schützen, sagt der COO von SingularityNET
Summary:
Janet Adams, COO von SingularityNET, spricht auf dem Future Blockchain Summit über die potenziellen Risiken der zentralisierten Entwicklung von Artificial General Intelligence (AGI). Sie schlägt vor, dass die Blockchain-Technologie die Entwicklung dezentralisieren könnte, um eine Monopolisierung der AGI durch Big Tech, das Militär oder die Regierung zu verhindern. Adams hebt auch die Herausforderungen bei der Vorhersage des AGI-Verhaltens hervor und betont, wie wichtig es ist, AGIs menschliche Werte zu vermitteln.
Die potenziellen Vorteile der künstlichen allgemeinen Intelligenz (AGI) sind enorm, aber auch die Gefahren, wenn sie von den falschen Parteien gesteuert wird. Janet Adams, COO von SingularityNET, einem Projekt, das sich auf künstliche Intelligenz und Web3 konzentriert, schlägt vor, dass diese Bedrohungen durch den Einsatz von Dezentralisierungsstrategien bewältigt werden können, die die Blockchain-Technologie einsetzen.
Adams teilte ihre Gedanken während des Future Blockchain Summit in Dubai mit, wo sie die potenziellen Risiken der AGI-Zentralisierung und die Rolle, die die Dezentralisierung bei deren Reduzierung spielen könnte, diskutierte.
AGI ist eine Idee von KI, die es Maschinen ermöglichen würde, ähnlich wie Menschen zu lernen und zu handeln. Die Weiterentwicklung dieses Konzepts könnte weltweit einen signifikanten Wandel herbeiführen. Um wirklich effektiv zu werden, müssten solche Maschinen jedoch ein gewisses Maß an Selbstbewusstsein entwickeln, das es ihnen ermöglicht, ein breiteres Spektrum von Aufgaben auszuführen.
Adams äußerte sich besorgt über eine mögliche "dystopische Zukunft", in der AGI von großen Technologieunternehmen, dem Militär oder der Regierung kontrolliert werden könnte. Sie ist der Ansicht, dass Big Tech eine solche Technologie wahrscheinlich zu ihrem Vorteil nutzen und damit die wirtschaftlichen Ungleichheiten aufrechterhalten würde.
Darüber hinaus betonte Adams das existenzielle Risiko für die Menschheit, wenn KI vollständig vom Militär entwickelt würde, und deutete die Möglichkeit an, eine solche Technologie in der Kriegsführung einzusetzen. Wenn eine einzige Regierung die Entwicklung dieser Technologie kontrollieren würde, könnte dies laut Adams den Weg für eine beispiellose Machtdynamik ebnen.
Um diese Risiken zu mindern, schlägt Adams die Dezentralisierung der AGI-Entwicklung durch den Einsatz der Blockchain-Technologie vor. Sie erklärte, dass Blockchain eine Methode zur Dezentralisierung bietet, die für On-Chain-KI-Finanztransaktionen eingesetzt werden könnte und einen breiten Zugang zur weltweit größten Entwicklerbasis für Open-Source-KI-Entwicklung ermöglicht.
Adams glaubt, dass AGIs durch die Dezentralisierung allen zugute kommen könnten, anstatt von einigen wenigen kontrolliert zu werden.
Sie räumt jedoch ein, dass es unmöglich ist, vorherzusagen, wie sich ein AGI verhalten wird, sobald er sich entwickelt hat, da er die menschliche Intelligenz übertreffen wird. Sie bleibt optimistisch, dass AGIs den Menschen als ihre Vorfahren betrachten würden. Adams merkte an, dass dezentralisierte Regierungsführung und die Verpflichtung, technologische Bemühungen zum Nutzen des Planeten und der Menschheit zu nutzen, von entscheidender Bedeutung sind. Es ist auch von größter Bedeutung, AGIs Konzepte von Liebe, Freundlichkeit und Mitgefühl einzuflößen.
Abschließend hofft Adams, dass die Einführung von AGIs dazu führen wird, dass sie den Menschen als ihre Vorfahren betrachten.
Published At
10/20/2023 8:42:59 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.