Google inaugure l'ère de l'IA dans son moteur de recherche
Google transforme son moteur de recherche Internet dominant en y intégrant des fonctions d'intelligence artificielle. Dans un premier temps, tous les utilisateurs aux États-Unis, et bientôt dans d'autres pays, verront s'afficher des aperçus de résultats de recherche générés par l'intelligence artificielle.
On ne sait pas encore quel sera l'impact sur le modèle commercial des sites web qui dépendent de l'accès des utilisateurs à leur site via Google. On ne sait pas non plus ce que cela signifiera pour les revenus publicitaires de Google dans l'environnement de la recherche sur Internet, qui est une source de revenus essentielle pour le groupe.
"Nous faisons Google pour vous", telle est la nouvelle devise de la recherche sur le web, a déclaré la responsable Liz Reid mardi lors de la conférence des développeurs Google I/O. Ainsi, il est désormais possible de poser plusieurs questions dans une requête de recherche - pas seulement pour savoir où se trouvent les studios de Pilates à Boston, mais aussi pour savoir comment s'y rendre et réserver un créneau horaire.
Google est devenu le moteur de recherche dominant grâce à son algorithme logiciel qui recherche des liens web pertinents pour les requêtes des utilisateurs. Cela s'est accompagné d'une idée commerciale qui a fait de Google une véritable planche à billets : les entreprises paient de l'argent pour que leurs liens apparaissent à côté des résultats de recherche.
Le leader du marché prend l'initiative
Avec les chatbots et autres applications d'IA, il devient toutefois plus facile de répondre directement aux questions plutôt que d'afficher une collection de liens web. Des start-ups d'IA comme Perplexity AI veulent ainsi concurrencer davantage Google. Jusqu'à présent, elles n'ont pas réussi à scier sérieusement le trône du leader du marché. Mais Google n'attend pas qu'elles deviennent plus fortes pour innover dans la recherche sur le Web, et prend désormais lui-même l'initiative.
En outre, Google a clairement indiqué qu'il ne voulait pas laisser le champ libre à des challengers comme OpenAI, l'inventeur de ChatGPT, pour les assistants IA du futur. La veille, OpenAI avait justement fait les gros titres avec la démonstration en direct d'une version de ChatGPT capable de converser de manière fluide avec les utilisateurs et de prendre en compte les informations visuelles de l'appareil photo du smartphone. Le chatbot a par exemple montré comment résoudre une équation mathématique écrite sur une feuille de papier par un collaborateur d'OpenAI. ChatGPT était également capable d'interpréter l'humeur d'une personne à partir de l'expression de son visage.
Google a démontré des capacités transversales similaires d'un nouveau logiciel d'IA appelé "Project Astra", non pas en direct sur scène, mais dans une vidéo tournée auparavant. En concurrence avec le populaire chatbot ChatGPT et d'autres logiciels d'intelligence artificielle, Google mise sur son propre modèle d'IA, Gemini. Certaines fonctions que l'on a pu voir lors de la démonstration d'Astra devraient bientôt être intégrées à Gemini, comme l'a annoncé le responsable de Google Koray Kavukcuoglu.
Google tente en même temps d'apaiser les craintes des exploitants de sites web que les aperçus de l'IA ne tarissent le trafic de données vers eux. Les tests effectués jusqu'à présent ont montré que les "AI Overviews" comportaient des liens plus variés que d'habitude - et que les utilisateurs cliquaient également sur ces liens, a déclaré la responsable de Google Hema Budaraju.
Auparavant, Google avait déjà introduit une fonction dans laquelle il suffisait d'entourer un objet sur une photo ou des mots sur l'écran du smartphone pour effectuer une recherche sur Internet. Lors de la Google I/O, il a également été démontré qu'il suffisait de faire une courte vidéo d'un tourne-disque défectueux pour obtenir des instructions sur la manière de résoudre le problème sur ce modèle. "La recherche Google, c'est de l'IA générative à la dimension de la curiosité humaine", a déclaré le président du groupe Sundar Pichai.
La nouvelle recherche assistée par l'IA sera d'abord lancée en anglais aux États-Unis. Elle devrait toutefois arriver en Europe "dans un avenir proche".
Google estime que l'humanité n'en est qu'au début de l'utilisation de l'IA
"Nous investissons dans l'IA depuis plus d'une décennie", a souligné Pichai. Et pourtant, la technologie n'en est qu'à ses débuts. Google travaille entre autres à l'extension de la "fenêtre contextuelle", c'est-à-dire la quantité d'informations qu'un modèle d'IA peut analyser simultanément. Actuellement, le logiciel d'IA peut, dans sa version d'abonnement, saisir en une seule fois un document PDF de 1500 pages ou une vidéo d'une heure et répondre à des questions à ce sujet. Aucun autre chatbot n'en est capable, a souligné la manager de Google Sissie Hsiao. L'objectif est de doubler ce chiffre d'ici la fin de l'année.
Google mise également sur les "agents IA" - des assistants capables d'accomplir de manière autonome des tâches en plusieurs étapes. Ils pourraient par exemple s'occuper entièrement des retours ou, en cas de déménagement, effectuer les changements d'adresse nécessaires et trouver des adresses utiles dans le nouveau quartier.
M. Pichai a notamment montré comment le logiciel peut désormais sélectionner à la demande, dans la collection de photos personnelles, toutes les images qui concernent par exemple les progrès d'un enfant en natation. Pour finir, le chef de Google a demandé à Gemini de compter le nombre de fois où le terme IA a été utilisé au cours de la présentation de près de deux heures : il y en a donc eu plus de 120. (DPA/Andrej Sokolow/Christoph Dernbach)