Skip to main content

20 Juin, 2024

Une nouvelle technologie empêche les hallucinations de la GenAI telles que « manger des pierres ».

Une nouvelle technologie empêche les hallucinations de la GenAI telles que « manger des pierres ».

Liran Hason et Alon Gubkin, cofondateurs d’Aporia. Avec l’aimable autorisation d’Aporia

Les garde-fous d’Aporia pour l’IA multimodale sont destinés à améliorer la sécurité et la fiabilité des dernières capacités d’IA combinant le texte, l’audio, la vidéo et les images.

Google a récemment restreint sa nouvelle fonction « AI Overviews » après que le moteur de recherche a indiqué aux utilisateurs des choses « étranges, inexactes ou inutiles », telles que manger des cailloux, mettre de la colle sur leurs pizzas et que Barack Obama est musulman.

À mesure que l’IA générative devient multimodale – la nouvelle application d’IA multimodale GPT-4o d’OpenAI gère toute combinaison de texte, d’audio, de vidéo et d’images – elle présente davantage de risques d’erreurs et de désinformation.

On parle alors d’hallucinations, de réponses erronées, de violations de la conformité et de tentatives d’évasion.

La société Aporia, basée à Tel Aviv et à San Francisco, a lancé une solution de garde-fous multimodaux pour l’IA qui aborde ces problèmes pour la première fois, améliorant ainsi la sécurité et la fiabilité de l’IA multimodale.

Les nouveaux garde-fous permettent aux ingénieurs d’ajouter une couche de sécurité et de contrôle entre l’application et l’utilisateur. Le système détecte et atténue 94 % des hallucinations avant qu’elles n’atteignent les utilisateurs via le chat, l’audio ou la vidéo.

« L’IA multimodale change la donne dans le monde dans lequel nous vivons, mais elle a besoin de garde-fous pour garantir sa sécurité, son succès et son adoption finale », a déclaré Liran Hason, PDG et cofondateur d’Aporia.

« Les industries du monde entier s’appuient sur l’IA, mais comme le découvrent de nombreux ingénieurs, l’IA en elle-même est intrinsèquement peu fiable », a ajouté Liran Hason.

« Les agents du service client sont rapidement remplacés par l’IA, mais imaginez ce qui se passerait sans l’élément humain entre l’IA et l’utilisateur final ? Comme nous l’avons vu, des accidents désastreux peuvent survenir rapidement. Aporia Guardrails for Multimodal AI est la première solution à atténuer activement les réponses parlées et écrites en temps réel et à soutenir l’humain dans la boucle. « 

La solution d’Aporia empêche également l’utilisation abusive des applications à des fins malveillantes, telles que les injections ou les fuites d’invites, qui peuvent conduire à l’exposition d’informations sensibles. Elle peut empêcher le langage explicite et offensant dans les interactions avec les utilisateurs, en identifiant et en bloquant les mots et les phrases inappropriés.

« Avec l’apparition d’applications multimodales, nous savions que nous devions créer une solution pour protéger les applications d’IA émergentes », a déclaré Alon Gubkin, cofondateur et directeur technique d’Aporia.

« Chez Aporia, nous pensons que la recherche continue sur les risques et les mesures de prévention doit aller de pair avec le développement de l’IA. Assurer la sécurité de l’IA est notre principal objectif, et c’est pourquoi nous nous engageons à développer des solutions, comme nos Guardrails pour les applications multimodales de l’IA, qui permettent aux ingénieurs de l’IA de profiter de tous les avantages de cette technologie qui change le monde. »

Aporia est reconnue comme un pionnier technologique par le Forum économique mondial pour sa mission de conduire une IA responsable. Elle compte parmi ses clients Bosch, Lemonade, Levi’s, Munich RE et Sixt.

https://www.aporia.com

https://www.aporia.com/multimodal-ai-guardrails