Google doit prendre des risques avec les outils de recherche IA selon Liz Reid

Dans le monde en constante évolution de la technologie et de l’innovation, Google se trouve à un carrefour crucial. Le géant de la recherche en ligne est sous les feux de la rampe, cherchant à maintenir son avance tout en intégrant davantage l’intelligence artificielle (IA) dans ses services. Lors d’une récente réunion générale, Liz Reid, la nouvelle vice-présidente de la recherche chez Google, a déclaré que l’entreprise devait continuer à prendre des risques avec ses produits IA, malgré les erreurs potentielles. Une déclaration audacieuse qui reflète la réalité d’un secteur où l’évolution rapide est la norme et où les erreurs sont inévitables mais corrigibles.

Liz Reid : Pousser les limites de l’IA

Lors de cette réunion, Liz Reid a affirmé que Google ne devait pas se retenir de lancer de nouvelles fonctionnalités en raison de possibles problèmes. Selon elle, il est essentiel de répondre aux erreurs au fur et à mesure qu’elles apparaissent, plutôt que de les éviter complètement. Reid, qui a été promue vice-présidente de la recherche en mars, a souligné l’importance d’agir avec urgence et de mener des tests approfondis pour adresser les nouveaux problèmes.

Un contexte compétitif

Les commentaires de Reid arrivent à un moment critique pour Google. La société est en pleine course pour rattraper OpenAI et Microsoft dans le domaine de l’IA générative. Depuis le lancement de ChatGPT par OpenAI fin 2022, le marché des chatbots et des outils IA connexes a explosé. Cette nouvelle technologie offre aux consommateurs un mode de recherche d’information inédit, différent de la recherche traditionnelle.

Des erreurs inévitables

Même si Google a travaillé sur son outil AI Overview pendant plus d’un an, des erreurs notables ont été relevées peu de temps après son lancement. Parmi les réponses absurdes, on trouvait l’affirmation erronée que Barack Obama était le premier président musulman des États-Unis, une suggestion de mettre de la colle sur une pizza et une recommandation de manger au moins une pierre par jour. Ces erreurs ont mis Google dans une position embarrassante, forçant l’entreprise à réagir rapidement pour corriger les problèmes.

Réactions et corrections

Reid a reconnu ces erreurs lors de la réunion, qualifiant certains contenus de « trolls ». Elle a également annoncé que la société avait apporté plus d’une douzaine d’améliorations techniques pour limiter ces problèmes, incluant des restrictions sur le contenu généré par les utilisateurs et les conseils en matière de santé.

La parole à Google

Un porte-parole de Google a déclaré que la « grande majorité » des résultats étaient exacts et qu’une violation des politiques de l’entreprise a été trouvée dans moins d’une requête unique sur sept millions où les AI Overviews apparaissent. La société continue d’affiner quand et comment elle affiche ces résumés IA pour qu’ils soient aussi utiles que possible.

Un schéma répétitif

L’outil AI Overview n’est pas le seul produit à avoir rencontré des problèmes. Avant le lancement de son chatbot IA Bard, désormais appelé Gemini, Google a été confronté aux défis posés par ChatGPT. Jeff Dean, le scientifique en chef de Google, a déclaré en décembre 2022 que l’entreprise devait avancer plus prudemment en raison des risques réputationnels. Cependant, Google a tout de même lancé son chatbot, ce qui a suscité des critiques de la part des actionnaires et des employés pour un lancement « raté ».

La leçon de Gemini

Un an plus tard, Google a lancé son outil de génération d’images basé sur l’IA, Gemini, mais a dû suspendre le produit après la découverte d’inexactitudes historiques et de réponses douteuses largement partagées sur les réseaux sociaux. Sundar Pichai, le PDG de Google, a alors envoyé un email interne pour qualifier ces erreurs d' »inacceptables » et de « biaisées ».

Red teaming

Liz Reid a exprimé que Google devait accepter certaines erreurs comme faisant partie du processus d’innovation. Elle a mentionné que l’entreprise effectuait de nombreux tests préalables, incluant des efforts de « red teaming » pour trouver les vulnérabilités avant qu’elles ne soient découvertes par des tiers.

Le rôle du red teaming

Le red teaming est une méthode où une équipe simule des attaques sur un système pour découvrir et corriger ses failles avant que des acteurs malveillants ne le fassent. Reid a souligné que, malgré ces efforts, il est impossible de tout prévoir.

La découverte des « data voids »

En lançant des produits IA, les équipes ont pu identifier des problèmes tels que les « data voids », des situations où le web ne contient pas suffisamment de données pour répondre correctement à une requête. Ils ont également pu identifier les commentaires provenant d’une page particulière, détecter les satires et corriger les erreurs d’orthographe.

Conclusion

Liz Reid a remercié les employés des différentes équipes ayant travaillé sur les corrections et a mis en avant l’importance des retours des employés, les encourageant à signaler tous les bugs, petits ou grands. Son message est clair : pour innover, il faut accepter des risques calculés et répondre rapidement aux erreurs.

Prendre des risques pour progresser

En fin de compte, la position de Reid reflète un état d’esprit tourné vers l’avenir. Pour Google, comme pour toute entreprise technologique, prendre des risques et affronter les erreurs est essentiel pour progresser. Dans un monde où l’IA évolue rapidement, l’innovation nécessite une certaine tolérance à l’erreur et une capacité à réagir rapidement. Pour Google, l’important est de continuer à pousser les limites de l’IA tout en assurant une qualité optimale des produits pour les utilisateurs.

Retour en haut