Google doit prendre des risques avec les outils de recherche IA selon Liz Reid

Dans le monde en constante Ă©volution de la technologie et de l’innovation, Google se trouve Ă  un carrefour crucial. Le gĂ©ant de la recherche en ligne est sous les feux de la rampe, cherchant Ă  maintenir son avance tout en intĂ©grant davantage l’intelligence artificielle (IA) dans ses services. Lors d’une rĂ©cente rĂ©union gĂ©nĂ©rale, Liz Reid, la nouvelle vice-prĂ©sidente de la recherche chez Google, a dĂ©clarĂ© que l’entreprise devait continuer Ă  prendre des risques avec ses produits IA, malgrĂ© les erreurs potentielles. Une dĂ©claration audacieuse qui reflète la rĂ©alitĂ© d’un secteur oĂą l’Ă©volution rapide est la norme et oĂą les erreurs sont inĂ©vitables mais corrigibles.

Liz Reid : Pousser les limites de l’IA

Lors de cette rĂ©union, Liz Reid a affirmĂ© que Google ne devait pas se retenir de lancer de nouvelles fonctionnalitĂ©s en raison de possibles problèmes. Selon elle, il est essentiel de rĂ©pondre aux erreurs au fur et Ă  mesure qu’elles apparaissent, plutĂ´t que de les Ă©viter complètement. Reid, qui a Ă©tĂ© promue vice-prĂ©sidente de la recherche en mars, a soulignĂ© l’importance d’agir avec urgence et de mener des tests approfondis pour adresser les nouveaux problèmes.

Un contexte compétitif

Les commentaires de Reid arrivent Ă  un moment critique pour Google. La sociĂ©tĂ© est en pleine course pour rattraper OpenAI et Microsoft dans le domaine de l’IA gĂ©nĂ©rative. Depuis le lancement de ChatGPT par OpenAI fin 2022, le marchĂ© des chatbots et des outils IA connexes a explosĂ©. Cette nouvelle technologie offre aux consommateurs un mode de recherche d’information inĂ©dit, diffĂ©rent de la recherche traditionnelle.

Des erreurs inévitables

MĂŞme si Google a travaillĂ© sur son outil AI Overview pendant plus d’un an, des erreurs notables ont Ă©tĂ© relevĂ©es peu de temps après son lancement. Parmi les rĂ©ponses absurdes, on trouvait l’affirmation erronĂ©e que Barack Obama Ă©tait le premier prĂ©sident musulman des États-Unis, une suggestion de mettre de la colle sur une pizza et une recommandation de manger au moins une pierre par jour. Ces erreurs ont mis Google dans une position embarrassante, forçant l’entreprise Ă  rĂ©agir rapidement pour corriger les problèmes.

  Les rĂ©sumĂ©s gĂ©nĂ©rĂ©s par l'IA sur Amazon : une aide fiable pour les consommateurs ?

RĂ©actions et corrections

Reid a reconnu ces erreurs lors de la rĂ©union, qualifiant certains contenus de « trolls ». Elle a Ă©galement annoncĂ© que la sociĂ©tĂ© avait apportĂ© plus d’une douzaine d’amĂ©liorations techniques pour limiter ces problèmes, incluant des restrictions sur le contenu gĂ©nĂ©rĂ© par les utilisateurs et les conseils en matière de santĂ©.

La parole Ă  Google

Un porte-parole de Google a dĂ©clarĂ© que la « grande majorité » des rĂ©sultats Ă©taient exacts et qu’une violation des politiques de l’entreprise a Ă©tĂ© trouvĂ©e dans moins d’une requĂŞte unique sur sept millions oĂą les AI Overviews apparaissent. La sociĂ©tĂ© continue d’affiner quand et comment elle affiche ces rĂ©sumĂ©s IA pour qu’ils soient aussi utiles que possible.

Un schéma répétitif

L’outil AI Overview n’est pas le seul produit Ă  avoir rencontrĂ© des problèmes. Avant le lancement de son chatbot IA Bard, dĂ©sormais appelĂ© Gemini, Google a Ă©tĂ© confrontĂ© aux dĂ©fis posĂ©s par ChatGPT. Jeff Dean, le scientifique en chef de Google, a dĂ©clarĂ© en dĂ©cembre 2022 que l’entreprise devait avancer plus prudemment en raison des risques rĂ©putationnels. Cependant, Google a tout de mĂŞme lancĂ© son chatbot, ce qui a suscitĂ© des critiques de la part des actionnaires et des employĂ©s pour un lancement « raté ».

La leçon de Gemini

Un an plus tard, Google a lancĂ© son outil de gĂ©nĂ©ration d’images basĂ© sur l’IA, Gemini, mais a dĂ» suspendre le produit après la dĂ©couverte d’inexactitudes historiques et de rĂ©ponses douteuses largement partagĂ©es sur les rĂ©seaux sociaux. Sundar Pichai, le PDG de Google, a alors envoyĂ© un email interne pour qualifier ces erreurs d' »inacceptables » et de « biaisĂ©es ».

Red teaming

Liz Reid a exprimĂ© que Google devait accepter certaines erreurs comme faisant partie du processus d’innovation. Elle a mentionnĂ© que l’entreprise effectuait de nombreux tests prĂ©alables, incluant des efforts de « red teaming » pour trouver les vulnĂ©rabilitĂ©s avant qu’elles ne soient dĂ©couvertes par des tiers.

  Google prĂ©sente Imagen 2, une IA rĂ©volutionnaire pour gĂ©nĂ©rer des images

Le rĂ´le du red teaming

Le red teaming est une méthode où une équipe simule des attaques sur un système pour découvrir et corriger ses failles avant que des acteurs malveillants ne le fassent. Reid a souligné que, malgré ces efforts, il est impossible de tout prévoir.

La découverte des « data voids »

En lançant des produits IA, les Ă©quipes ont pu identifier des problèmes tels que les « data voids », des situations oĂą le web ne contient pas suffisamment de donnĂ©es pour rĂ©pondre correctement Ă  une requĂŞte. Ils ont Ă©galement pu identifier les commentaires provenant d’une page particulière, dĂ©tecter les satires et corriger les erreurs d’orthographe.

Conclusion

Liz Reid a remerciĂ© les employĂ©s des diffĂ©rentes Ă©quipes ayant travaillĂ© sur les corrections et a mis en avant l’importance des retours des employĂ©s, les encourageant Ă  signaler tous les bugs, petits ou grands. Son message est clair : pour innover, il faut accepter des risques calculĂ©s et rĂ©pondre rapidement aux erreurs.

Prendre des risques pour progresser

En fin de compte, la position de Reid reflète un Ă©tat d’esprit tournĂ© vers l’avenir. Pour Google, comme pour toute entreprise technologique, prendre des risques et affronter les erreurs est essentiel pour progresser. Dans un monde oĂą l’IA Ă©volue rapidement, l’innovation nĂ©cessite une certaine tolĂ©rance Ă  l’erreur et une capacitĂ© Ă  rĂ©agir rapidement. Pour Google, l’important est de continuer Ă  pousser les limites de l’IA tout en assurant une qualitĂ© optimale des produits pour les utilisateurs.

Retour en haut