C’est trop tard, Google. L’IA est déjà à l’état sauvage.
C’est trop tard, Google. L’IA est déjà à l’état sauvage.

Les dirigeants de Google mettent en garde contre la diffusion irresponsable d’outils d’IA. Cette mise en garde fait suite au lancement par son rival OpenAI du chatbot ChatGPT en novembre. Il est dans l’intérêt financier de Google de se présenter comme un gardien responsable de l’IA. Mais il est de plus en plus clair que la publication par OpenAI du robot d’IA générative ChatGPT a mis Google en état d’alerte.
Lundi, certains des plus hauts dirigeants de Google, dont le PDG Sundar Pichai, le vice-président senior James Manyika et le directeur général de son unité de recherche en IA DeepMind, Demis Hassabis, ont publié un explicatif sur leur approche de la recherche en IA, intitulé « Pourquoi nous nous concentrons sur l’IA (et à quelle fin) ».
« Nous comprenons que l’IA, en tant que technologie encore émergente, pose des complexités et des risques variés et évolutifs », peut-on lire dans le post. « Notre développement et notre utilisation de l’IA doivent tenir compte de ces risques. C’est pourquoi, en tant qu’entreprise, nous considérons qu’il est impératif de poursuivre l’IA de manière responsable. »
Le fait que le post survienne après des mois de gros titres sur le chatbot intelligent effrayant ChatGPT – et les ravages qu’il provoque – n’est pas une coïncidence.
Comment répondre aux réglementations en constante évolution sur le changement climatique et la conservation de l’eau sans sacrifier les bénéfices ?
Comme l’a démontré ChatGPT, l’IA générative facile à utiliser peut être pratique et productive. Elle peut également être utilisée comme une arme et a déjà été utilisée pour tricher dans les devoirs, rédiger des courriels d’hameçonnage sans faille et écrire des logiciels malveillants personnalisés. OpenAI a codé en dur des filtres de contenu dans ChatGPT pour empêcher les gens de l’utiliser à de mauvaises fins, mais les mauvais acteurs ont trouvé ces garde-fous relativement faciles à contourner.
L’intelligence artificielle étant susceptible d’être à la base d’une grande partie des activités futures de Google, le géant de la recherche et de la publicité est sensible à la concurrence et à tout déploiement d’IA « risqué » susceptible d’attirer l’attention du public et des politiques. Du point de vue de Google, il est à la fois judicieux sur le plan commercial et moral de mettre en garde contre l’utilisation imprudente de l’IA et de se positionner en tant que gardien responsable.
Malheureusement, il est probablement trop tard.
Des outils concurrents comme ChatGPT sont un casse-tête pour Google
Google utilise l’intelligence artificielle pour tout faire, depuis les requêtes en langage naturel pour la recherche jusqu’à la création de flux sur YouTube. Ces cas d’utilisation, selon le post, sont fondés sur la mission déclarée de l’entreprise, à savoir « organiser les informations du monde et les rendre universellement accessibles et utiles ».
Mais l’IA, qu’elle décrit comme « une technologie en phase de démarrage », a également des capacités et des utilisations en évolution, avec un potentiel de « mauvaise application, mauvaise utilisation et conséquences involontaires ou imprévues ».
Une liste non exhaustive de problèmes potentiels : inexactitudes, amplification des préjugés sociétaux, risques de cybersécurité, et IA agissant comme un moteur d’inégalité.
Il s’agit d’une « attaque à peine voilée contre OpenAI et ChatGPT », selon une note de recherche de Richard Windsor de Radio Free Mobile.
Et la question en quelques mots : « Google n’a pas tort, car si ChatGPT pose des problèmes répétés, la confiance du public dans l’IA pourrait être ébranlée, ce qui aurait évidemment des répercussions négatives sur Google », explique Richard Windsor.
En d’autres termes : Si ChatGPT et ses successeurs causent des ravages généralisés, cela ruinera l’adoption de l’IA pour tout le monde, y compris Google.
Le professeur Michael Wooldridge, directeur de la recherche fondamentale sur l’IA à l’Institut Turing, a déclaré que si Google « réagit peut-être à l’énorme publicité dont a bénéficié ChatGPT », les mauvais résultats obtenus par le passé lui donnent également des raisons de faire preuve de prudence.
Il rappelle l’utilisation par Meta, anciennement Facebook, du modèle linguistique d’IA Galactica pour rédiger des articles scientifiques qui ont produit « des absurdités très plausibles ». Le modèle a créé la possibilité que quelqu’un puisse « inonder les journaux scientifiques et les conférences de déchets ». Meta a retiré l’outil.
« Il semble tout à fait plausible que [Google] essaie de montrer qu’il est l’opérateur responsable en matière d’IA et qu’il ne veut pas diffuser de systèmes avant de savoir s’ils sont sûrs et fiables », a déclaré Michael Wooldridge.
Il y aura d’autres moments de ChatGPT
Un flot d’argent se déverse sur les start-ups d’IA générative qui promettent des applications dans le monde réel.
Et le jour même où Google publiait son billet de blog appelant à la prudence, Microsoft annonçait la disponibilité générale du service OpenAI d’Azure dans le cadre de son « engagement continu à démocratiser l’IA ».
En pratique, son annonce signifie que davantage d’entreprises utilisant Azure peuvent désormais accéder facilement à des outils comme ChatGPT, ainsi qu’au générateur d’images d’IA DALL E-2.
« ChatGPT arrivera bientôt dans le service Azure OpenAI, qui est maintenant généralement disponible, car nous aidons les clients à appliquer les modèles d’IA les plus avancés du monde à leurs propres impératifs commerciaux », a déclaré le président et PDG de Microsoft, Satya Nadella.
Il a également été question que Microsoft commence à déployer ChatGPT dans l’ensemble de sa gamme de produits Office.
Tout cela stimule Google. Dans une interview accordée au Time, M. Hassabis, de DeepMind, a laissé entendre qu’une version bêta privée d’un robot semblable à ChatGPT, appelé Sparrow, serait lancée cette année, dans le but d’intégrer des fonctions qui font défaut à ChatGPT.
Selon Richard Windsor, Google semble considérer OpenAI, une entreprise cofondée par des personnes comme Elon Musk, le PDG très controversé de la Silicon Valley, comme « une bande de cow-boys prêts à diffuser n’importe quoi pour la consommation générale ». (Musk a par la suite abandonné sa participation dans la startup en 2018).
Mais pour poursuivre la métaphore du cow-boy, Google qui appelle à la retenue dans le développement de l’IA tente de fermer « la porte de la grange après que le cheval se soit emballé ». Le grand public peut accéder à de puissants outils d’IA – et il n’y a pas de retour en arrière possible.
https://www.businessinsider.com/google-fears-ai-running-wild-but-it-is-too-late-2023-1?r=US&IR=T
https://www.theregister.com/2023/01/18/russia_openai_chatgpt_workarounds/