La fonctionnalité « AI Overview » de Google se débat avec des réponses inexactes et soulève des inquiétudes
Summary:
La fonctionnalité d’intelligence artificielle de Google, « AI Overview », a fourni des réponses inexactes et potentiellement dangereuses aux requêtes des utilisateurs. Google n’a pas encore trouvé de solution concrète au problème, désactivant plutôt certaines requêtes qui génèrent des résultats erronés. Les faux pas incluent des suggestions d’utiliser de la colle pour garder du fromage sur une pizza et des affirmations inexactes sur les chiens propriétaires d’hôtels. Google semble blâmer les utilisateurs pour avoir généré des « requêtes inhabituelles », tandis que les demandes de clarification de Cointelegraph sont restées sans réponse. Pendant ce temps, Elon Musk, fondateur de la société d’IA xAI, prédit que les machines dépasseront les capacités humaines d’ici 2025.
La fonctionnalité d’intelligence artificielle (IA) récemment introduite par Google, « AI Overview », a fourni des réponses incorrectes et potentiellement dangereuses aux demandes des utilisateurs, le géant de la technologie semblant n’avoir aucune solution immédiate au problème. À l’heure actuelle, Google a dû restreindre certaines invites de recherche sur son « AI Overview » après que le système a commencé à donner des suggestions trompeuses et potentiellement dangereuses.
Le problème a été mis en lumière lorsque les plateformes d’information et de médias sociaux ont rapporté que des utilisateurs demandaient à l’algorithme de recherche comment s’assurer que le fromage colle à la pizza, ce à quoi l’IA a répondu en suggérant l’utilisation de colle. Parmi les autres bévues, citons le système affirmant à tort que les chiens possédaient des hôtels et faisant référence à une statue canine inexistante comme preuve. Ces erreurs peuvent sembler légères, mais le véritable problème réside dans le fait que l’IA continue de produire des résultats précis et inexacts avec le même niveau d’assurance.
Jusqu’à présent, la réponse de Google a été de désactiver les requêtes spécifiques qui conduisent à des résultats inexacts, au fur et à mesure qu’elles sont identifiées. Cette approche, cependant, brosse un tableau de Google jouant un jeu de rattrapage avec les lacunes de sa fonction d’IA. En plus de cela, Google semble attribuer le problème aux personnes qui posent les questions.
Meghann Farnsworth, porte-parole de Google, a déclaré à The Verge par e-mail : « Beaucoup d’exemples de requêtes que nous avons rencontrés sont assez inhabituels. Nous avons également rencontré des cas qui ont été manipulés ou qui n’ont pas pu être reproduits." La façon dont les utilisateurs peuvent éviter de poser des « questions inhabituelles » n’est pas claire pour le moment.
Les demandes de Cointelegraph pour obtenir des explications supplémentaires de Google n’ont pas reçu de réponse immédiate. Il semble qu’il soit encore nécessaire d’ajuster le système d’IA de Google avant qu’il ne fonctionne aussi bien que prévu. En revanche, Elon Musk, fondateur de la société d’IA concurrente xAI, a récemment prévu que l’intelligence artificielle dépassera les capacités humaines d’ici la fin de 2025. Lors de la conférence VivaTech 2024 à Paris, Musk a prédit que xAI pourrait égaler, voire dépasser, OpenAI et DeepMind de Google d’ici la fin de 2024.
Published At
5/25/2024 7:34:22 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.