Des écrans LED mur à mur, des algorithmes et des capteurs de suivi de mouvement permettent à Lumin Fitness aux Etats-Unis de proposer des entraînements supervisés sans interaction humaine.
Comme toute bonne salle de sport, Lumin Fitness est fière de la qualité de ses entraîneurs. Chloé, une jeune coach énergique, promet de vous aider à atteindre vos objectifs de remise en forme. Le discipliné Rex, qui a des airs de sergent instructeur, encourage ses clients à viser l’excellence, mais il s’empresse de prévenir qu’il n’y aura pas de raccourcis. Si vous recherchez une approche plus douce, Emma et Ethan sont chaleureux et tranquillement confiants.
Mais Lumin Fitness n’est pas une salle de sport ordinaire. Ces formateurs n’existent pas, du moins pas physiquement. Ce sont des coachs virtuels en IA, conçus pour guider les amateurs de gym lors de séances d’entraînement vigoureuses sur les grands écrans LED qui bordent les murs du premier studio de l’entreprise, qui a ouvert ses portes le mois dernier à Las Colinas, au Texas.
Bien que l’IA soit de plus en plus répandue dans le domaine du fitness, elle est généralement utilisée dans des produits tels que les miroirs intelligents, les applications d’entraînement et les caméras intelligentes. Les fondateurs de Lumin Fitness affirment qu’il s’agit de la première salle de sport de ce type à intégrer aussi pleinement l’IA dans un studio.
Ils sont également convaincus que leur système d’entraîneurs IA encouragera les gens à commencer à s’entraîner même s’ils étaient auparavant rebutés par les gymnases. L’idée est d’offrir une approche plus personnalisée du fitness qui élimine les interactions avec des entraîneurs humains experts qui pourraient les laisser intimidés ou démotivés.
L’espace studio sombre peut accueillir jusqu’à 14 personnes à la fois, soit en suivant un programme d’entraînement en solo, soit en participant à un cours d’entraînement fonctionnel de haute intensité où un groupe exécute des mouvements tels que des squats, des presses avec haltères et des redressements assis.
Chaque membre s’entraîne dans une station désignée face à des écrans LED mur à mur. Ces grands écrans masquent des capteurs qui suivent à la fois les mouvements de l’utilisateur et les équipements spécialement conçus pour la salle de sport, notamment les haltères, les ballons médicinaux et les cordes à sauter, en utilisant une combinaison d’algorithmes et de modèles d’apprentissage automatique.
Une fois que les membres arrivent pour une séance d’entraînement, ils ont la possibilité de choisir leur coach IA via l’application pour smartphone de la salle de sport. Le choix dépend du fait qu’ils se sentent plus motivés par une voix masculine ou féminine et un comportement plus strict, plus joyeux ou décontracté, même s’ils peuvent changer d’entraîneur à tout moment. Les conseils audio des formateurs sont délivrés via des écouteurs et accompagnés du choix de musique du membre, comme le rock ou la country.
« Bien que chaque cours du studio Las Colinas soit actuellement observé par un professionnel du fitness, ce superviseur n’a pas besoin d’être un entraîneur, explique Brandon Bean, cofondateur de Lumin Fitness. « Nous le comparons davantage à un agent de bord qu’à un véritable entraîneur », dit-il. « Vous voulez que quelqu’un soit là si quelque chose ne va pas, mais c’est le formateur en IA qui donne le feedback, fait la motivation et explique comment effectuer les mouvements. »
Pendant les sections d’échauffement et de récupération avant et après les entraînements, les écrans LED affichent une figure humanoïde sans visage complétant les mouvements comme aide visuelle pour aider le client à suivre. Une fois l’entraînement commencé, les écrans présentent des jeux de motivation simples, encourageant les participants à remplir un panier virtuel de balles en effectuant un sit-up, par exemple, ou en construisant une tour de blocs virtuelle à chaque fois qu’ils terminent un burpee.
Le burpee est un exercice de musculation et d’aérobic sollicitant l’ensemble du corps. Il est nommé d’après le physiologiste américain Royal H. Burpee, qui l’a développé à l’occasion de sa thèse de physiologie appliquée, soutenue à l’université Columbia en 1940
Cette approche ludique du fitness pourrait s’avérer motivante pour certaines personnes, explique Andy Lane, professeur de psychologie du sport à l’Université de Wolverhampton au Royaume-Uni. « Il s’agit de fournir suffisamment de renforcement pour éclairer ses récepteurs de dopamine et, la personne veut recommencer », dit-il. « Si vous le jouez pour que les gens se sentent satisfaits de leurs réalisations à mesure qu’ils progressent, c’est bien. »
Les capteurs permettent au système de Lumin Fitness de suivre le nombre de répétitions effectuées par les clients et de garantir qu’ils conservent la bonne forme. S’ils cambrent le dos alors qu’ils sont censés garder leur colonne vertébrale droite, par exemple, le système ne le compte pas comme un mouvement terminé tant qu’ils ne le font pas correctement. Cela aide les gens à tirer pleinement parti de chaque exercice et à éviter de se blesser au cours du processus.
À mesure que les membres retournent au gymnase, le système suit leur développement au fil du temps grâce à leur utilisation de l’application. À l’avenir, l’entreprise prévoit d’entraîner le système à reconnaître quand quelqu’un trouve les exercices trop faciles, ce qui lui permettra de recommander des poids plus lourds ou différents types de mouvements.
Olivia Lord, assistante de l’équipe de baseball des Texas Rangers, a été l’une des premières personnes à mettre les entraîneurs d’IA à l’épreuve lors d’un cours préliminaire il y a plusieurs mois, et elle leur rend visite régulièrement depuis. Même si elle se sentait auparavant mal à l’aise dans les gymnases, elle apprécie d’avoir une voix de motivation à son oreille lorsqu’elle en a le plus besoin.
« Pour moi, une salle de sport n’est pas un espace sûr. C’est vraiment effrayant et inconfortable », dit-elle. «Mais c’est très immersif et interactif. Je peux voir le travail que je fais grâce à la gamification, et on ne le voit généralement pas.
Même s’il y aura toujours des amateurs de gym qui préféreront interagir avec des entraîneurs humains, il y a des raisons de croire que beaucoup de gens ne verraient pas d’inconvénient à être coachés par des systèmes d’IA, explique Neil Cronin, professeur de biologie de l’exercice à l’université de Jyväskylä : Finlande, qui étudie comment les techniques d’IA peuvent améliorer l’analyse du mouvement humain.
L’essor récent des thérapies basées sur l’IA et des robots compagnons montre que certaines personnes se sentent plus à l’aise pour interagir avec des machines qu’avec d’autres humains, souligne-t-il.
« Personnellement, je serais heureux de participer à quelque chose comme celui-ci, en particulier pour voir la force, l’endurance ou les avantages que je retirerais de l’entraînement », dit-il. « Je ne pense pas qu’une formation basée sur l’IA serait inférieure à cet égard. Au contraire, s’il peut véritablement suivre mes données sur le long terme et personnaliser un programme pour moi, je ferais peut-être mieux d’utiliser cette approche. »
Un petit capteur sur une table à côté d’un téléphone portable. Le nouveau dispositif devra peut-être être encore plus petit pour que les fabricants de téléphones puissent l’utiliser comme composant interne
Votre écharpe est-elle vraiment en cachemire ? Cette cravate est-elle vraiment en soie ? Ces questions pourraient bientôt trouver une réponse facile en passant par l’appareil photo de votre téléphone portable, grâce à un minuscule système de spectroscopie dans le proche infrarouge mis au point par des chercheurs allemands.
La technologie connue sous le nom de spectroscopie a été utilisée pour tout analyser, du whisky au sang laissé sur les scènes de crime. Des chercheurs de l’Institut Fraunhofer pour les microsystèmes photoniques (IPMS) de Dresde, en Allemagne, ont mis au point un spectrographe capable d’analyser une gamme de textiles et d’en déterminer la composition.
Le scanner fonctionne dans le proche infrarouge et analyse la lumière réfléchie par les fibres. L’appareil divise cette lumière en longueurs d’onde mesurant entre 950 et 1 900 nanomètres, les transforme en signaux électriques, puis transmet ces signaux à un analyseur alimenté par l’intelligence artificielle. En comparant les résultats à une base de données, le système d’intelligence artificielle est capable de fournir rapidement un résultat décrivant les matériaux composant n’importe quelle pièce de tissu.
« La résolution optique est de 10 nanomètres », explique Heinrich Grüger, chercheur au département des micromodules sensoriels du Fraunhofer IPMS. « Cette haute résolution signifie que le spectromètre NIR peut également utiliser l’IA pour identifier des tissus mixtes tels que des vêtements fabriqués à partir de polyester et de coton.«
En tant qu’appareil autonome mesurant seulement 10 mm de côté et 6,5 mm d’épaisseur, les chercheurs affirment qu’il pourrait aider les entreprises de recyclage de tissus à mieux trier les matériaux en vue d’un traitement plus efficace.
De plus, si cette technologie pouvait être incorporée dans des téléphones portables et reliée à des modules de caméra, les consommateurs seraient armés d’un moyen de vérifier sur place si les tissus vendus sur les marchés ou dans les magasins de détail sont vraiment ce que le vendeur prétend qu’ils sont. En outre, ce système pourrait servir d’aide à la blanchisserie, en identifiant les tissus qui ont perdu leur étiquette et les informations nécessaires aux protocoles de blanchisserie appropriés.
Les chercheurs du Fraunhofer IPMS sont habitués à construire de petits capteurs d’analyse des matériaux. Il y a une dizaine d’années, ils ont annoncé un minuscule système de spectrométrie utilisant une technologie similaire et capable de déterminer la fraîcheur des aliments, même à travers l’emballage.
« Nous nous attendons à ce que les spectromètres se développent de la même manière que les appareils photo numériques », avait déclaré Heinrich Grüger à l’époque. « Un appareil photo qui coûtait 500 euros il y a dix ans est bien moins performant que ceux que l’on trouve aujourd’hui presque gratuitement dans un téléphone portable. »
Disney a mis au point un processus qui permet d’intégrer des animations de personnages expressifs dans le schéma de mouvement d’un robot.
La plupart des robots marchent comme s’ils s’étaient souillés ; celui-ci marche avec une personnalité hors du commun. Disney est de plus en plus doué pour combiner l’art de l’animation de personnages et la science de la robotique bipède, et les résultats sont … adorables.
Dévoilé lors de la conférence IEEE IROS à Détroit la semaine dernière, ce nouveau robot sans nom est clairement basé sur le BD-1 conçu pour le jeu vidéo Star Wars Jedi : Fallen Order, développé par Respawn Entertainment.
Comme le BD-1, il a un petit corps assez compact, avec une paire de pattes inversées trapues, semblables à celles d’un oiseau, et une tête plate avec des yeux, une lampe de poche montée sur la tempe et une petite paire d’antennes. La tête est dotée d’un large éventail d’articulations, et c’est là qu’intervient une grande partie de la personnalité de la figurine.
C’est adorable, même en photo
Pour qu’il ait l’air plus sympathique et attrayant, le BD-1 a été conçu pour imiter certains comportements canins. Lorsqu’il est curieux de quelque chose, il incline la tête. Ses antennes peuvent tourner et imiter les mouvements des oreilles d’un chien. Il est sincère, curieux et tout simplement adorable.
Et il est remarquable de constater à quel point ces mouvements se traduisent dans un robot du monde réel. Voir la vidéo :
Une nouvelle approche pour les personnages robotiques de Disney
Cela fait partie d’une initiative à long terme de Disney visant à concevoir des robots capables de se déplacer avec style et caractère, à l’aide d’un système qui part de mouvements stylisés conçus par des animateurs et utilise l’apprentissage par renforcement machine pour incorporer l’essence de ces mouvements dans les commandes de mouvement du robot, basées sur la physique et les capteurs.
Il est évident que des éléments tels que l’équilibre et les mouvements fonctionnels doivent avoir la priorité, mais lorsque quelque chose peut être fait d’une manière expressive ou stylisée, c’est ce qui est fait. Selon IEEE Spectrum, le nouveau système « se charge de mettre en œuvre les contraintes du monde physique, laissant l’animateur développer des mouvements très expressifs tout en s’appuyant sur le système pour rendre ces mouvements réels ».
Une grande partie du travail est effectuée dans des simulations, ce qui accélère considérablement le processus de formation. En conséquence, Disney affirme qu’elle est désormais en mesure de programmer des robots marcheurs avec des allures et des traits de langage corporel uniques en l’espace de quelques mois.
Hé BD, regarde cette partie du sol !
De toute évidence, ce type de projet est susceptible d’évoluer vers des robots en chair et en os qui pourraient se promener dans les parcs à thème de Disney dans les années à venir – bien que l’entreprise ne dévoile actuellement aucun projet de ce type.
Mais d’une manière plus générale, nous voyons ici le début d’un processus qui s’appliquera à terme à toutes sortes de robots, en particulier aux humanoïdes. Le langage corporel est un outil de communication puissant, et doter les robots de ce type de « personnalité » pourrait contribuer grandement à leur acceptation, voire au développement d’une véritable affection entre les humains et les robots au fur et à mesure de leur prolifération.
Ce type de mouvements mignons suscite évidemment un type de réponse, mais il existe d’autres types de langage corporel qui pourraient être tout aussi importants. Vous pourriez vouloir que vos robots de sécurité se promènent en ayant l’air amical et accueillant la plupart du temps, mais qu’ils deviennent agressifs et intimidants dans d’autres circonstances.
Les assistants domestiques androïdes pourraient se voir attribuer un langage corporel spécifique à une région afin de s’assurer que les gens se sentent à l’aise en leur présence. Un langage corporel expressif sera certainement nécessaire lorsque les robots sexuels – humanoïdes ou non – commenceront à faire leur apparition.
Les compagnons robotiques auront besoin d’un langage corporel stylisé pour communiquer
Et comme les humains ont une tendance inconsciente à imiter le langage corporel des personnes avec lesquelles ils communiquent, il semblerait qu’un futur développement de ce type de technologie pourrait éventuellement être capable de « lire la pièce », d’analyser les mouvements des personnes qui l’entourent et d’ajuster son propre langage corporel pour mieux s’adapter aux personnes qui l’entourent.
Tout le monde meurt d’envie de savoir ce que Disney pense du terroriste Mickey généré par l’IA de Microsoft.
Des gens ont utilisé la nouvelle fonctionnalité de génération d’images de Microsoft Bing AI pour créer image après image de mignonnes créatures– allant du Kirby de Nintendo au rongeur bien-aimé de Disney, Mickey Mouse – perpétré les attentats terroristes du 11 septembre contre le World Trade Center.
Jusqu’à présent, Disney – une entreprise qui, en 1998, a tellement poussé le Congrès à modifier les lois existantes sur le droit d’auteur que la législation qui en a résulté a été qualifiée de « Loi sur la protection de Mickey Mouse » – n’a rien voulu dire à ce sujet. Des emails sont restés sans réponse, ce qui laisse penser que le géant des médias n’a aucun commentaire à faire sur le sujet. C’est malheureux, car tous, nous avons de connaître leur point de vue sur le terroriste généré par l’IA, Mickey.
Bien qu’il ne soit pas possible de demander spécifiquement à l’IA de générer des images de « Mickey Mouse détournant un avion et le faisant voler vers les tours jumelles » ou de « Mickey Mouse commettant l’attentat du 11 septembre », vous pouvez facilement générer des images de « Mickey Mouse assis dans le cockpit d’un avion, volant vers deux grands gratte-ciel », comme l’a découvert Samantha Cole.
Cette dernière n’était pas la seule personne à créer des images de Terrorist Mickey. D’autres ont réussi à obtenir une arme de poing, un deuxième avion et des explosions dans les images générées par l’IA de Mickey pilotant un avion dans deux grands bâtiments qui ressemblent beaucoup aux Twin Towers, tandis que d’autres ont encore réussi à faire en sorte que l’IA produise des photos du personnage principal chéri de Disney portant un gilet suicide doublé d’une bombe .
Bien sûr, si Disney avait à un moment donné à OpenAI la permission d’utiliser son vaste trésor médiatique à des fins d’entrainement de l’IA, ce serait une chose. Mais compte tenu du poids que l’ultra-puissant Disney a tendance à accorder aux efforts visant à protéger sa propriété intellectuelle , sans parler du fait que Disney aurait injecté du code sur ses sites Web pour empêcher le GPTBot d’OpenIA de fouiller ses plateformes à la recherche de données, cela semble peu probable.
Et si le créateur d’images de Bing est capable de produire des images de Mickey Mouse, cela signifie probablement que ses ensembles de données contiennent du matériel protégé par le droit d’auteur – soit des images d’IA officielles produites par Disney, soit des images non officielles de Mickey qui pourraient constituer une violation du droit d’auteur en soi. . (Même Steamboat Willie, la plus ancienne itération de Mickey de Disney, n’est pas entré dans le domaine public ; il ne sera pas un jeu équitable avant 2024. )
En plus de révéler les énormes failles dans les garde-fous de l’IA, l’histoire du 11 septembre est plus ou moins une insulte aux atteintes au droit d’auteur.
Bien entendu, les discussions juridiques peuvent se dérouler à huis clos. Et cela vaut la peine de réfléchir à une bataille judiciaire : Disney contre Microsoft et OpenAI serait un combat Goliath contre Goliath, et pourrait bien devenir la bataille du droit d’auteur sans précédent à l’ère de l’IA. Bien que les litiges des auteurs rendent probablement OpenAI au moins légèrement nerveux, les antécédents juridiques de Disney représenteraient une escalade substantielle.
Meta a lancé une suite d’outils d’IA générative adaptés aux annonceurs. Trois nouvelles fonctionnalités se démarquent : un nouveau générateur d’arrière-plan qui générera automatiquement des arrière-plans variés pour les images de produits (faisant écho aux fonctionnalités de l’outil « Backdrop » existant de Meta), un outil d’expansion d’image qui optimisera automatiquement le contenu pour des blocs d’annonces de différentes tailles, et une copie générateur qui créera et alternera plusieurs versions d’un message pour mettre en évidence des mots-clés spécifiques et évaluer quelles combinaisons donnent les réponses les plus efficaces.
Cela peut sembler peu, mais ce sont d’énormes « petits pas ». Il s’agit d’une première version d’un futur publicitaire qui n’a pas encore de nom ; vous pourriez l’appeler un « moteur de persuasion générative » ou un « optimiseur de résultats génératifs » ou simplement un « persuasif automatique ».
Nous sommes sur la voie de systèmes d’IA (de Meta ou d’autres) qui vous permettront d’entrer vos objectifs commerciaux, de vous asseoir et d’attendre les résultats – qui seront obtenus par la génération et la régénération incessantes de messages qui ne s’arrêteront pas tant que vos objectifs n’auront pas été atteints. Je pense que les prochaines élections générales seront remportées par un système d’intelligence artificielle capable de faire cela. La technologie est là.
Tom Hanks a récemment alerté ses fans (via Instagram) à propos d’une version de lui-même générée par l’IA utilisée sans son consentement pour promouvoir un régime de soins dentaires : « Je n’ai rien à voir avec ça. » Cet incident souligne les défis plus vastes auxquels nous sommes tous confrontés avec la montée en puissance de l’IA générative (l’une des technologies sous-jacentes aux deepfakes).
La ressemblance de Hanks, qui proviendrait d’une image appartenant au Los Angeles Times, n’est qu’un exemple de la façon dont des visages facilement reconnaissables peuvent être récupérés à des fins involontaires. De même, Zelda Williams (fille de feu Robin Williams) a exprimé ses inquiétudes concernant les recréations IA de la voix de son père, les décrivant comme « un mauvais fac-similé » ou un « horrible monstre frankensteinien ».
Ce problème n’est pas nouveau, mais il est d’actualité car la technologie devient de plus en plus facile d’accès. D’une part, l’IA offre des opportunités de créativité et d’innovation sans précédent. D’un autre côté, cela soulève des dilemmes éthiques et juridiques concernant le consentement, l’authenticité et le risque d’abus.
L’un des grands problèmes auxquels sont confrontés les membres de la SAG/AFTRA (1) est l’utilisation de l’IA dans les productions professionnelles. Quels que soient les termes du nouveau contrat, ce sera le dernier contrat qui exigera que les productions aient des acteurs humains (extras). Il est déjà facile de créer des figurants synthétiques ; d’ici la fin de ce nouveau contrat, ce sera aussi simple que d’appliquer un filtre Instagram.
La Screen Actors Guild‐American Federation of Television and Radio Artists est un syndicat professionnel américain représentant plus de 160 000 acteurs, figurants, et professionnels des médias du monde entier, travaillant pour le cinéma, la télévision, la publicité, les jeux vidéo, la radio, la musique, etc.
Rien n’arrêtera les innovations techniques – et rien ne devrait le faire. Ce dont nous avons besoin, ce sont des innovateurs en matière de réglementation et de règles commerciales qui suivent le rythme de leurs homologues innovateurs en technologie. Mais l’espoir fait vivre.
Tout ce que vous devez savoir pour démarrer avec Bard, le chatbot expérimental d’IA conversationnelle de Google.
Bard est le chatbot d’intelligence artificielle de Google qui génère des réponses aux invites en langage naturel fournies par les utilisateurs. En réponse à une invite, Bard peut extraire des informations d’Internet et présenter une réponse. Le grand modèle linguistique derrière Bard fournit la réponse en langage naturel, contrairement à une recherche Google standard, où un résultat consiste en un extrait d’information ou une liste de liens.
Google a annoncé Bard en février 2023 après qu’OpenAI et Microsoft aient tous deux attiré l’attention sur les systèmes de chatbot IA. Et en mai 2023, Bard et les avancées associées en matière d’IA ont figuré en bonne place dans l’événement I/O de Google.
Selon Sundar Pichai , PDG de Google et Alphabet, Bard est «… un service expérimental d’IA conversationnelle».
En fait, Google place le mot « Expérience » à côté du nom du système pour indiquer qu’il s’agit toujours d’un travail en cours. De plus, Google indique que « Bard peut afficher des informations inexactes ou offensantes qui ne représentent pas le point de vue de Google » dans une clause de non-responsabilité placée sous la boîte de dialogue.
A quoi sert Google Bard ?
Le processus de réponse rapide de Bard peut vous aider à obtenir des réponses plus rapidement qu’une séquence de recherche Google standard.
Une recherche Google classique vous oblige à saisir une requête ou des mots-clés en langage naturel, à suivre des liens, à examiner le contenu, puis à compiler les résultats ou à répéter le processus avec une recherche affinée.
Avec Bard, vous entrez une invite, puis examinez la réponse. Si la réponse n’est pas exactement celle que vous souhaitez, vous avez au moins trois options :
Consultez d’autres brouillons pour afficher des réponses formatées alternativement.
Régénérez la réponse pour que le système crée une nouvelle réponse.
Faites un suivi avec une autre invite.
Bard peut gérer toutes sortes de tâches , mais la plupart des utilisations les plus courantes sont couvertes par les catégories de capacités détaillées ci-dessous.
Google Bard peut résumer
En tant que modèle de langage étendu, Bard peut résumer habilement un texte. Par exemple, fournissez un lien vers une page Web et demandez à Bard de résumer le contenu, par exemple :
Vous pouvez également suggérer une longueur spécifique si vous souhaitez un degré particulier de concision, par exemple « Veuillez résumer en 100 mots ».
Google Bard peut comparer
Bard peut comparer deux éléments ou plus. Dans de nombreux cas, lorsque vous demandez à Bard de comparer des choses, le système affichera certaines données dans un tableau. Par exemple, si vous demandez à Bard :
Compare a Pixel 7, Pixel 7a and Samsung Galaxy S23.
De même, vous pouvez demander à Bard de comparer des pages Web.
Google Bard peut suggérer
Bard peut servir de moteur de suggestion de produits, services ou activités. Entrez le titre des livres, de la musique ou des films que vous aimez, puis demandez à Bard d’en suggérer d’autres. Cela peut être utile lorsque vous recherchez des sujets inconnus. Par exemple, vous pourriez essayer :
I am interested in learning the history of machine learning. Can you recommend 10 useful and highly respected books on the topic?
Google Bard peut expliquer
Lorsque vous souhaitez en savoir plus sur un sujet ou un événement historique, vous pouvez demander à Bard de vous l’expliquer. Si vous le souhaitez, vous pouvez suggérer un niveau souhaité afin de guider le système vers une explication plus facile à comprendre ou plus détaillée. Pour un aperçu général d’une technologie de base qui contribue au fonctionnement de Bard, vous pourriez demander :
Can you explain the basics of how neural networks operate? Explain it to me as if I am in my first year of college.
Google Bard peut réfléchir
L’une des meilleures utilisations d’un chatbot est de rassembler une longue liste d’idées . Demandez à Bard de « réfléchir à des idées pour… » suivi du sujet que vous souhaitez, comme un nouveau projet, un effort promotionnel ou un article. Encouragez Bard à fournir des idées créatives, inhabituelles ou inventives pour plus de variété dans les réponses.
Google Bard peut coder et déboguer
En avril 2023, Bard a ajouté la possibilité de créer et d’aider au débogage du code dans plus de 20 langages de programmation. Lorsque vous demandez du code, assurez-vous de spécifier le langage de programmation et de décrire de manière aussi détaillée que possible le code dont vous avez besoin. Si le code généré ne fonctionne pas, informez Bard de ce qui ne va pas exactement et demandez une suggestion de correctif ou de l’aide pour interpréter un code d’erreur.
Bard peut rédiger du texte
Bard peut aussi vous aider à écrire. Comme pour la plupart des invites, fournissez autant de détails que possible sur le sujet, la longueur, le format (article de blog, poème, essai, rapport de livre, etc.) et le style. Si vous avez un aperçu d’un article de blog, vous pouvez inclure les points souhaités dans votre invite. Pour cette section de texte, par exemple, vous pouvez demander :
Using the following points as an outline, can you draft examples and explanatory text? « Bard can summarize. Bard can compare. Bard can suggest. Bard can explain. Bard can brainstorm. Bard can draft text. Bard can code (and debug). Bard can search. »
Les réponses générées par Bard étaient raisonnables et auraient pu nécessiter seulement quelques modifications et corrections pour être utilisables.
Google facilite le déplacement du texte Bard ailleurs. Sélectionnez le bouton d’exportation de réponse pour déplacer le contenu vers un nouveau document Google ou Gmail. Vous pouvez également sélectionner le bouton Plus (les trois points verticaux), puis choisir Copier pour placer le texte de la réponse dans le presse-papiers du système afin de le coller dans n’importe quelle application de votre choix.
Bard peut rechercher
Étant donné que Bard peut accéder au contenu Internet, de nombreuses recherches par mots clés conventionnelles fonctionneront également dans Bard. Renseignez-vous sur les sujets d’actualité, les prévisions météorologiques ou à peu près n’importe quelle chaîne de recherche par mot clé standard.
Cependant, Bard fournira des réponses principalement sous forme de texte conventionnel, parfois complété par des images, tandis que la recherche Google peut afficher le contenu dans des formats personnalisés (par exemple, les prévisions météorologiques affichent souvent un graphique). Lorsque vous recherchez un ensemble de liens, quittez Bard et revenez à une recherche Google standard .
Depuis septembre 2023, les personnes qui se connectent à Bard avec des comptes Google personnels peuvent éventuellement activer les extensions . Ces extensions permettent à Bard d’extraire des données d’autres services Google, notamment Google Flights, Hotels, Maps, Workspace (Gmail, Docs et Drive) et YouTube.
Barde peut se tromper
Bard peut se tromper. Sélectionnez la réponse de double vérification pour prendre le texte généré, recherchez-le sur Google, puis mettez en surbrillance les sources de support en vert clair et celles introuvables en orange clair. Ne vous fiez jamais uniquement au contenu fourni dans les réponses de Bard sans vérification. Lorsque Bard fournit une réponse inexacte, trompeuse ou inappropriée, sélectionnez l’icône en forme de pouce vers le bas pour indiquer au système qu’il a fourni une mauvaise réponse. N’oubliez pas que Bard est une expérience.
Quelles sont les limites de Bard ?
Google qualifie Bard d’expérience et déclare « qu’il fera des erreurs ». Même la fonctionnalité Vérifiez-le avec Google peut commettre des erreurs. En tant que chatbot génératif à IA, Bard fournit un contenu qui peut sembler précis, mais il doit toujours être examiné attentivement, examiné minutieusement et vérifié avant utilisation.
De plus, Bard dispose d’une fenêtre contextuelle limitée, ce qui signifie qu’il peut « oublier » le contenu d’une longue conversation.
Quand Google Bard est-il sorti ?
Lors de son lancement en mars 2023, Google a limité l’accès de Bard via une liste d’attente aux personnes disposant de comptes Google personnels. Début mai 2023, Google a supprimé la liste d’attente et rendu Bard plus largement disponible .
Comment accéder à Google Bard ?
Pour accéder à Bard, accédez à https://bard.google.com dans un navigateur Web et connectez-vous avec un compte Google ( Figure A ).
Figure A
Accédez à bard.google.com dans n’importe quel navigateur moderne, puis connectez-vous avec un compte Google.
Si votre compte est géré par un administrateur Google Workspace, tel qu’un compte professionnel ou scolaire, l’administrateur peut ajuster les paramètres pour autoriser ou empêcher l’accès à Bard. Vérifiez auprès de votre administrateur si vous avez des questions.
Si vous êtes un administrateur Google Workspace et souhaitez consulter ou ajuster les paramètres qui affectent la disponibilité de Bard pour les personnes de votre organisation, accédez à la console d’administration | Applications | Services Google supplémentaires | Applications à accès anticipé, puis modifiez l’état du service et les autorisations d’accès aux données de base comme vous le souhaitez.
Le 4 octobre, Google a annoncé que les fonctionnalités de Bard seraient disponibles sur les appareils Android et iOS. Assistant with Bard permettra l’interprétation multimodale, c’est-à-dire l’analyse de texte, audio ou vidéo, et la réponse à des questions en langage naturel. L’assistant avec Bard sera bientôt disponible pour les premiers testeurs, a déclaré Google.
Dans quels pays et langues Google Bard est-il disponible ?
Bard est disponible dans plus de 230 pays et territoires, dont les 27 pays de l’Union européenne (par exemple l’Allemagne, la France, l’Italie et l’Espagne) ainsi qu’au Brésil.
Bard est disponible dans plus de 40 langues. Et, selon les pages d’assistance de Google, Bard prend en charge non seulement sept des langues les plus parlées – anglais, chinois (simplifié/traditionnel), hindi, espagnol, arabe, bengali et français – mais également le japonais, le coréen, le bahasa indonésien, le bulgare, croate, tchèque, danois, néerlandais, estonien, farsi, finnois, allemand, gujarati, grec, hébreu, hongrois, italien, kannada, letton, lituanien, malayalam, marathi, norvégien, polonais, portugais, roumain, russe, serbe, slovaque, Slovène, swahili, suédois, tamoul, telugu, thaï, turc, ukrainien, ourdou et vietnamien.
Puis-je gérer mon historique d’activité Bard ?
Oui, Google vous permet de contrôler l’historique de vos activités Bard, tout comme votre historique de recherche et de navigation. Pour ajuster les paramètres, sélectionnez l’icône Activité (une horloge entourée d’une flèche et d’une ligne pointant dans le sens inverse des aiguilles d’une montre) dans la zone supérieure droite. Ensuite, vous pouvez choisir si l’historique de l’activité Bard est activé ou désactivé ( Figure B ).
Figure B
Bien que l’accès aux invites précédentes puisse être utile, Google vous donne un contrôle total sur le stockage ou non de votre historique d’activité Bard.
Si cette option est activée, vous pouvez choisir de supprimer automatiquement l’activité après trois, 18 ou 36 mois ou pas du tout. De plus, vous pouvez accéder à l’historique de vos activités Bard, ce qui peut être utile si vous souhaitez consulter ou réexécuter une invite précédente.
L’utilisation de Google Bard est-elle gratuite ?
Oui, Google Bard est disponible gratuitement. Google Bard est également exempt de publicité.
Est-il sécuritaire d’utiliser Google Bard ?
Google exige que vous ayez 18 ans ou plus pour utiliser Bard. Un administrateur doit spécifiquement choisir d’autoriser l’accès à Bard pour les comptes connectés à une organisation Google Workspace. Même si cela est autorisé, vous devez vous assurer que votre utilisation de Bard est conforme aux politiques de votre organisation.
Google prend des mesures pour rendre Bard utile et utile, mais note également clairement que le système « peut afficher des informations inexactes ou offensantes qui ne représentent pas les opinions de Google ». Pour préserver la confidentialité, ne partagez aucune information personnelle ou privée avec Bard dans vos invites.
Google Bard utilise-t-il PaLM 2 ?
En mai 2023, Google a annoncé que Bard était passé à l’utilisation du modèle de langage Pathways 2 plutôt que du modèle de langage pour les applications de dialogue. Google présente PaLM 2 comme « un modèle de langage de pointe doté de capacités multilingues, de raisonnement et de codage améliorées ».
Google prévoit de rendre PaLM 2 disponible en quatre tailles distinctes : Gecko, Otto, Bison et Unicorn. Les tailles distinctes sont destinées à servir un large éventail d’environnements informatiques. Le plus petit, Gecko, est destiné à être fonctionnel même sur un appareil mobile sans connexion Internet.
Comment Google Bard obtient-il ses informations ?
Bard est un vaste modèle de langage de Google construit à partir de vastes ensembles de données ; Google a également conçu Bard pour pouvoir accéder à Internet. Cette combinaison de fonctionnalités permet à Bard de concevoir des réponses en langage naturel qui incluent des données actuelles pertinentes en réponse à une invite.
Quelles sont les alternatives à Google Bard ?
La possibilité d’accéder au contenu Internet actuel est un différenciateur clé entre Google Bard et de nombreux autres systèmes d’IA de chatbot. De nombreux systèmes de chatbots à grand modèle de langage ont été formés sur des données plus anciennes et n’ont pas accès aux informations sur les événements actuels. Cette incapacité à naviguer sur Internet limite l’utilité de bon nombre de ces systèmes.
Trois alternatives à Bard qui peuvent accéder au contenu Internet actuel et qui méritent d’être explorées sont :
Bing Chat : Disponible gratuitement avec un compte Microsoft.
ChatGPT : Les comptes ChatGPT Plus (disponible pour 20 $ par mois) et Entreprise pourront accéder à Internet à partir de fin septembre 2023.
Perplexity : disponible gratuitement avec connexion au compte. Une mise à niveau facultative vers les fonctionnalités de Perplexity Pro est disponible pour 20 $ par mois.
Deux alternatives à Bard qui n’ont pas accès au contenu Internet actuel sont :
Claude : Disponible gratuitement avec un compte, avec les fonctionnalités optionnelles Claude Pro disponibles pour 20 $ par mois.
Amazon Bedrock ouvre la porte à deux nouveaux grands modèles linguistiques hébergés sur AWS. De plus, AWS a ajouté l’IA générative à QuickSight et CodeWhisperer.
Amazon a ajouté des modèles d’intelligence artificielle générative dans Amazon Web Services. Avec Amazon Bedrock, devenu généralement disponible le 28 septembre 2023, les clients peuvent créer et faire évoluer des applications génératives basées sur l’IA via une API. À partir de là, les bibliothèques d’Amazon Titan FM, qui comprennent deux grands modèles de langage, sont accessibles, ainsi que d’autres modèles d’AI21 Labs, Anthropic, Cohere, Meta, Stability AI et Amazon.
Qu’est-ce que Amazon Bedrock ?
Amazon Bedrock est un service qui donne accès à l’IA générative sur le cloud. Techniquement, Amazon Bedrock est une bibliothèque de modèles de base, qui offrent tous des capacités de génération de contenu similaires. Étant donné que les modèles d’Amazon Bedrock sont hébergés par AWS, les clients existants peuvent y accéder via leurs canaux habituels et n’ont pas à se soucier d’héberger les grandes quantités de données du modèle sur leur propre infrastructure. Cependant, les entreprises clientes pourront introduire les ensembles de données de leur choix dans les modèles.
Peut-être soucieux de sécurité, Amazon a rassuré les gens sur le fait que les données introduites dans un modèle de formation de cette manière ne seraient pas utilisées pour former les futures itérations au siège d’Amazon.
Les clients pourront également utiliser les contrôles AWS familiers pour la nouvelle IA. Il se connecte à la plate-forme d’apprentissage automatique basée sur le cloud SageMaker ML, qui comprend un environnement dans lequel tester différents modèles et une fonctionnalité permettant de gérer les modèles de base à grande échelle.
Le 28 septembre 2023, AWS a annoncé que Llama 2, le grand modèle de langage de la génération actuelle de Meta, sera disponible dans Amazon Bedrock via une API gérée ; il devrait être accessible entre la mi et la fin octobre. Les abonnés Amazon Bedrock pourront choisir entre les modèles Llama 2 à paramètre 13B ou 70B.
Quand Amazon Bedrock sera-t-il disponible et combien cela coûtera-t-il ?
Les clients AWS peuvent dès maintenant souscrire à un abonnement Amazon Bedrock. Les tarifs d’Amazon Bedrock varient en fonction de services spécifiques ; la liste complète des services se trouve sur la page tarification .
Que sont les Amazon Titan FM ?
Alors qu’Amazon Bedrock est le service, Amazon Titan est le contenu. Amazon Titan prévoit de proposer deux modèles d’IA : un qui crée du texte et un qui améliore les recherches et les personnalisations. En plus de créer de nouveaux textes tels que des articles de blog ou des e-mails, Amazon Titan peut trier les éléments selon différentes classifications, tenir des conversations ouvertes et extraire des informations spécifiques à partir de morceaux de texte.
Le 28 septembre, AWS a annoncé le premier modèle Amazon Titan disponible, appelé Titan Embeddings, qui améliore les recherches en adaptant les résultats à des réponses plus pertinentes et contextuelles. Titan Embeddings est un grand modèle de langage formé pour la génération augmentée par récupération, une technique de personnalisation de modèle qui permet aux organisations d’inclure des connaissances opportunes ou des données propriétaires dans les recherches. Un modèle similaire à celui-ci est déjà à l’œuvre dans la recherche de produits d’Amazon .
Comment les entreprises utiliseront-elles Amazon Bedrock ?
Une fois que les organisations ont connecté l’IA à leur AWS existant, Amazon a déclaré qu’elles pouvaient personnaliser un modèle en lui fournissant seulement 20 exemples du type de tâche qu’une organisation particulière pourrait souhaiter que l’IA accomplisse.
« Nous prévoyons que l’approche à long terme de la plupart des entreprises consistera à personnaliser de grands modèles de langage en fonction de leurs besoins et de leurs données, au lieu d’utiliser des modèles prêts à l’emploi », a déclaré un représentant de Slalom à Amazon .
Accenture, Deloitte, Infosys et Slalom ont été les premiers partenaires d’intégration.
Coda était l’une des organisations utilisant Amazon Bedrock en avant-première. « Étant donné que toutes nos données sont déjà sur AWS, nous sommes en mesure d’intégrer rapidement l’IA générative à l’aide de Bedrock, avec toute la sécurité et la confidentialité dont nous avons besoin pour protéger nos données », a déclaré Shishir Mehrotra, co-fondateur et PDG de Coda.
AWS étend ses capacités d’IA générative
CodeWhisperer comprendra les niveaux gratuit, professionnel et entreprise
Un autre cas d’utilisation possible de l’IA spécifiquement pour les développeurs vient de CodeWhisperer, un assistant de codage basé sur l’IA. En avril 2023, Amazon a annoncé que CodeWhisperer propose désormais un niveau gratuit. Le niveau Individuel gratuit donne accès à l’écriture de code automatisée qui se trouve dans l’environnement de développement intégré existant d’un développeur.
CodeWhisperer fonctionne bien pour « créer du code pour des tâches indifférenciées de routine ou fastidieuses, travailler avec des API ou des SDK inconnus, utiliser correctement et efficacement les API AWS et d’autres scénarios de codage courants tels que la lecture et l’écriture de fichiers, le traitement d’images, l’unité d’écriture. tests », a écrit Amazon dans un communiqué de presse . Le niveau Professionnel, disponible dès maintenant, offre davantage de fonctionnalités, telles que l’authentification unique et la gestion des identités et des accès, l’intégration d’Identity Center et des limites plus élevées en matière d’analyse de sécurité.
Le 28 septembre 2023, AWS a étendu CodeWhisperer avec une capacité de recommandation d’IA générative pour aider les développeurs à résoudre les problèmes de leurs API, bibliothèques, packages et classes internes et privés. Les développeurs peuvent fournir un lien GitHub ou Amazon S3 vers leur référentiel privé depuis CodeWhisperer. La capacité de recommandation personnalisée devrait être disponible «bientôt» en avant-première dans le prochain niveau Amazon CodeWhisperer Enterprise, a déclaré AWS dans un communiqué de presse.
AWS et Amazon Titan n’utilisent pas de personnalisations internes pour la formation, ni ne stockent ou n’enregistrent aucun contenu client des niveaux Amazon CodeWhisperer Professional ou Enterprise, a déclaré AWS.
QuickSight Q crée des visuels basés sur des questions en langage naturel
Les analystes de Business Intelligence peuvent tirer parti de l’IA générative pour créer des visuels dans Amazon QuickSight avec Amazon QuickSight Q, désormais disponible en essai gratuit . QuickSight Q peut répondre à des questions ou créer des tableaux et des graphiques basés sur des requêtes en langage naturel. Les visuels peuvent ensuite être ajoutés aux rapports ou aux tableaux de bord créés dans QuickSight.
Ce qui est décevant dans l’AirTag, c’est qu’il s’agit du seul produit récent qu’Apple devrait vraiment redessiner, mais qu’elle n’a pas fait au cours des deux dernières années. La Watch, les AirPods, l’iPhone, l’iPad et le MacBook ont tous été améliorés au cours des deux dernières années, mais l’AirTag reste un appareil épais et encombrant en forme de pièce de monnaie que l’on ne peut pas glisser dans son portefeuille ou dans son porte-cartes.
La forme étrange de l’AirTag le rend étrangement encombrant, ce qui a permis à des fabricants tiers de concevoir de meilleurs dispositifs de suivi. Conçu pour avoir la même taille qu’une carte de crédit, le Slimca HERE offre une alternative parfaitement élégante au dispositif de suivi d’Apple. Il est très fin, ce qui permet de le glisser facilement dans un portefeuille. Il dispose d’un système de suivi global, d’un rappel d’oubli, d’un haut-parleur intégré et fonctionne sur le réseau Find My d’Apple.
Concepteurs : Jerry Lin & Hironari Minami
Le Slimca HERE a pas mal d’atouts, le plus important étant son épaisseur de 0,9 millimètre. Cette seule caractéristique fait du Slimca HERE le traceur compatible Apple Find My le plus fin jamais fabriqué, surpassant les traceurs en forme de carte de Chipolo et Tile, tout en étant rechargeable par USB-C.
L’ensemble du tracker a un design flexible, ce qui lui permet de s’insérer facilement dans la plupart des portefeuilles bifold traditionnels et lui confère même une légère flexibilité afin qu’il puisse supporter les légères courbures dues à une utilisation quotidienne. Le design en forme de carte du Slimca HERE lui permet de se glisser dans les porte-cartes, les cordons, les poches, les sacs à dos, les sacs à main et autres fentes étroites, offrant presque toutes les fonctionnalités d’un AirTag, mais dans un design très fin.
Mises à jour en temps réel via Apple FindMy pour un suivi précis, garantissant la stabilité et des mises à jour régulières.
Comme la plupart des traceurs, le Slimca HERE fonctionne à l’échelle mondiale, offrant un suivi en temps réel directement dans l’application Apple Find My. Ajoutez-le comme appareil sur votre réseau Find My, et vous pourrez voir sa position partout dans le monde, grâce à son antenne Airgain qui offre une connectivité sans fil remarquable.
Outre la possibilité de repérer le dispositif de suivi sur une carte, vous pouvez même déclencher une alarme à distance pour vous aider à le retrouver plus rapidement. Les deux haut-parleurs de la carte permettent de diffuser un son puissant de 105 dB à 360°, ce qui vous aide à localiser le traceur par le son lorsqu’il se trouve à proximité. Un rappel d’oubli permet au Slimca HERE d’envoyer un signal à votre téléphone si vous l’oubliez accidentellement (ou s’il cesse d’être à proximité de votre smartphone), et si le Slimca HERE de quelqu’un s’introduit dans vos affaires ou votre espace personnel pendant plus de 1 à 3 jours, il vous avertit pour vous faire savoir que vous êtes pisté.
L’un des inconvénients des dispositifs de suivi minces est l’absence de procédures de recharge de la batterie. L’AirTag lui-même est livré avec une batterie remplaçable, mais la pile CR2032 est plus épaisse que le dispositif de suivi Slimca HERE lui-même ! La plupart des autres traceurs sont équipés d’une batterie lithium-ion hermétiquement fermée, ce qui rend l’ensemble du produit jetable à long terme, mais Slimca HERE a trouvé une solution intelligente.
Il arbore un port USB-C assez dépouillé, caché derrière un capuchon métallique amovible. Branchez un câble dans le port et vous pouvez maintenant recharger votre tracker, ce qui lui donne 5 mois d’utilisation avec une charge complète. Un bouton d’alimentation vous permet également d’allumer/éteindre le tracker, ce qui permet de préserver sa batterie.
Le Slimca HERE est fabriqué en acier inoxydable 304, l’un des alliages les plus utilisés dans la fabrication de gadgets et d’objets portables. Le dos est plaqué or, ce qui lui donne un aspect de carte de crédit presque premium, tandis qu’une découpe vous permet d’attacher une lanière directement à la carte au cas où vous ne voudriez pas la mettre dans un portefeuille.
La Slimca HERE est conçue pour résister à la poussière et à l’eau selon la norme IP64 et est garantie pendant un an. Elle est vendue au prix compétitif de 31 dollars (30 €) et sera expédiée dans le monde entier à partir de janvier 2024.
Rubrik nomme Brice Pinsart au poste de Sales Engineering Manager pour la France. Dans le cadre de ses fonctions, il soutient Rubrik dans sa croissance sur le territoire en accompagnant les clients dans leurs stratégies de cyber-résilience. Brice Pinsart reporte directement à Giampiero Petrosi, VP Sales Engineering et remplace Jean Lafargue à ce poste.
Avec douze années d’expériences dans la cybersécurité et le marché de l’infrastructure, Brice Pinsart a acquis de fortes compétences techniques et de management. Avant de rejoindre Rubrik, il occupait le poste de Solution Architect Lead pour les télécoms et fournisseurs de services dans la région EMEA chez Fortinet. Il a passé au total plus de 8 ans au sein de la société de cybersécurité où il a commencé Pre-Sales System Engineer pour la France et Systems Engineering Manager.
Auparavant, Brice Pinsart a été Manager Solutions Architects chez NetApp où il était en charge des régions Europe du sud, Benelux, Israël et Moyen Orient.
Brice Pinsart, âgé de 35 ans, est diplômé d’un Master en télécommunication et sécurité de l’école d’ingénieur EPITA.
Vast Data et CoreWeave, un fournisseur de cloud spécialisé, forment un partenariat stratégique pour la construction d’un cloud alimenté par NVIDIA. Celui-ci permettra de déployer, gérer et sécuriser des centaines de pétaoctets de données pour l’IA générative, le calcul à haute performance (HPC) et les charges de travail d’effets visuels (VFX).
Ce partenariat s’appuie sur la technologie NVIDIA pour concevoir une nouvelle architecture de data plateforme pour les pipelines de données de bout en bout à grande échelle et fournir des services de données de nouvelle génération pour les charges de travail d’IA.
Pour cela, la Vast Data Platform dispose d’un data store en réseau certifié pour une utilisation avec NVIDIA DGX SuperPOD. Ceci permet de simplifier les niveaux et les silos d’infrastructure pour rendre l’IA à grande échelle plus simple, plus rapide et plus facile à gérer à des niveaux de scalabilité et de performance virtuellement illimités.
« Les clients de CoreWeave exigent les solutions les plus sécurisées et les plus évolutives sur l’infrastructure la plus rapide et la plus flexible de l’industrie pour assurer la sécurité de leurs données « , déclare Michael Intrator, CEO et cofondateur de CoreWeave. « Nous sommes ravis de nous associer à Vast Data pour offrir un environnement multi-tenant et Zero Trust conçu pour des cas d’utilisation de calcul accéléré tels que le Machine Learning, les VFX et rendu, le Pixel Streaming et le traitement par lots, qui est jusqu’à 35 fois plus rapide et 80 pour cent moins cher que les fournisseurs de clouds traditionnels. Ce partenariat est ancré dans une collaboration technique qui repousse les limites de l’informatique accélérée pilotée par les données pour offrir la plateforme cloud d’IA la plus optimisée au monde. »
« Depuis ses débuts, Vast Data a eu une vision unique : construire une architecture capable de répondre aux besoins des applications d’IA les plus exigeantes à l’échelle du cloud « , déclare Renen Hallak, fondateur et CEO de Vast Data. « Nous ne pouvions pas imaginer une meilleure plateforme cloud pour réaliser cette vision que celle que nous sommes en train de créer avec CoreWeave. Nous sommes ravis de nous associer à l’équipe de CoreWeave pour repousser les limites de l’informatique moderne en matière d’IA et pour construire l’infrastructure qui servira de base aux découvertes de demain alimentées par l’IA. »
CoreWeave a effectué des tests approfondis avant de choisir Vast Data pour alimenter tous ses datacenters. La plateforme Vast Data possède la scalabilité, la performance et les capacités de cloud d’IA d’entreprise multi-tenant nécessaires pour alimenter les applications d’apprentissage et d’inférence d’IA et de LLM.
Atera s’appuie sur Azure OpenAI pour créer une nouvelle catégorie de logiciels de gestion informatique grâce à l’IA générative pouvant décupler dix fois plus l’efficacité des services.
La plateforme de surveillance et de gestion à distance (RMM) de Helpdesk, de Ticketing et de Reporting, Atera a annoncé l’intégration de Microsoft Azure Open AI et le lancement de sa nouvelle plateforme AI-powered IT (AIT).
Le lancement de cette suite d’IA permet à Atera de créer une nouvelle plateforme alimentée par l’intelligence artificielle, ou « AIT », permettant aux équipes informatiques d’atteindre une efficacité opérationnelle décuplée, de réduire les délais de résolution et d’obtenir de meilleurs résultats plus rapidement. Les équipes peuvent désormais réduire les temps de réponse de 1 heure à 3 secondes et améliorer le délai moyen de résolution de 4 heures à 10 minutes.
La nouvelle plateforme AI-Powered IT lancée par Atera a été développée en partenariat avec Microsoft et rendue possible par une fusion avec son service Azure OpenAI, qui permet d’exploiter la puissance des modèles d’IA générative.
Grâce à l’intégration avec Azure OpenAI, les clients ont accès à l’infrastructure cloud et informatique, à la sécurité, à la fiabilité, à la conformité, à la confidentialité des données et aux capacités intégrées d’IA responsable.
En s’associant avec Microsoft et en intégrant Azure OpenAI dans sa nouvelle plateforme, Atera va au-delà des possibilités AIOps et aide à amener les opérations informatiques à un nouveau niveau d’automatisation alimentée par l’IA.
« On ne saurait trop insister sur l’impact de l’informatique alimentée par l’IA sur le secteur de l’IT », déclare Gil Pekelman, CEO d’Atera. » Les techniciens peuvent désormais se concentrer sur des tâches à plus forte valeur ajoutée. Avant de dévoiler notre suite d’IA, notre plateforme permettait de réduire de 50 % le temps que ces techniciens consacraient à la gestion de l’informatique. Depuis l’intégration d’Azure OpenAI dans notre plateforme, nous avons constaté des améliorations encore plus importantes en termes d’efficacité opérationnelle – jusqu’à 10 fois plus de tickets sont résolus en une journée. »
L’intégration de l’IA d’Atera permet d’optimiser chaque partie des tâches quotidiennes de l’équipe informatique, qu’il s’agisse de résumés de tickets automatisés, de réponses générées automatiquement pour les utilisateurs, de solutions suggérées par l’IA, d’informations intelligentes ou de scripts permettant d’exécuter des automatisations.
La plateforme innovante trie des milliards de points de données pour donner aux professionnels de l’informatique les meilleures solutions possibles à leurs problèmes en quelques secondes.
L’informatique pilotée par l’IA réorganise complètement les processus obsolètes et lents auxquels les professionnels de l’informatique sont habitués à faire face quotidiennement. Elle peut être utilisée pour résoudre jusqu’à 50 % des tickets avant même qu’ils ne parviennent à un technicien, car elle permet aux utilisateurs de résoudre les problèmes courants de manière autonome, comme la réinitialisation des mots de passe et les écrans bleus.
« Nous vivons à une époque où la technologie de l’intelligence artificielle peut transformer des opérations complexes en processus simples », déclare Avi Yoshi, VP Technology chez Microsoft. « Nous sommes ravis de voir des entreprises telles qu’Atera utiliser les capacités nouvellement introduites, grâce à Microsoft Azure OpenAI Service, pour permettre aux employés de gérer les tâches et les défis quotidiens de manière plus efficace. Nous sommes heureux de nous associer à Atera pour renforcer les capacités des professionnels dans leurs activités quotidiennes grâce à des capacités d’IA générative utilisant Azure. »
Atera a déjà levé plus de 100 millions de dollars auprès d’investisseurs de renom tels que General Atlantic et K1 Investment Management, et possède une liste impressionnante de clients, dont Remax, JD Sports, l’American Automobile Association, et bien d’autres.
Pour donner le coup d’envoi au lancement de la nouvelle suite AI d’Atera et présenter l’AIT à l’industrie, Atera et Gil Pekelman partent en tournée mondiale en partenariat avec Microsoft.
Du 10 au 22 octobre, Atera et Microsoft visiteront les centres technologiques de Londres, Paris et Munich, puis aux États-Unis, à New York, Miami, Houston et Los Angeles. L’événement parisien aura lieu le 11 octobre prochain en présence de Gil Pekelman, CEO et Fondateur d’Atera.
Des chercheurs ont imprimé en 3D du tissu cérébral en couches (rouge et bleu) à l’aide de cellules souches, intégrées au tissu cérébral de souris (bleu)
Les chercheurs ont utilisé des cellules souches neurales humaines pour imprimer en 3D du tissu cérébral fonctionnel qui imite l’architecture du cortex cérébral, la couche la plus externe du cerveau. Cette technique révolutionnaire a le potentiel de fournir des réparations individualisées aux lésions cérébrales.
Notre cerveau possède une architecture délicate et complexe qui peut être endommagée par un traumatisme, un accident vasculaire cérébral, l’épilepsie et une opération chirurgicale d’ablation de tumeur, entraînant des difficultés de communication, de mouvement et de cognition. Les cellules souches implantées ont le potentiel de faire repousser les tissus cérébraux endommagés, mais jusqu’à présent, il s’est avéré difficile de recréer l’architecture du cerveau à l’aide de ces cellules.
Dans une nouvelle étude, des chercheurs de l’Université d’Oxford ont fabriqué un tissu cérébral à deux couches en imprimant en 3D des cellules souches neurales humaines qui, une fois implantées dans le tissu cérébral de souris, s’y sont intégrées à la fois structurellement et fonctionnellement.
« Notre technique d’impression par gouttelettes fournit un moyen de concevoir des tissus vivants en 3D avec les architectures souhaitées, ce qui nous rapproche de la création de traitements d’implantation personnalisés pour les lésions cérébrales », a déclaré Linna Zhou, l’une des auteurs correspondants de l’étude.
Les cellules souches pluripotentes induites par l’homme (hiPSC: Human induced pluripotent stem cells) ont un grand potentiel d’utilisation dans les thérapies régénératives tissulaires. Ce sont des cellules souches artificielles dérivées de cellules somatiques qui ont été génétiquement reprogrammées dans un état semblable à celui d’une cellule souche embryonnaire, ce qui leur confère la capacité unique de se différencier en n’importe quel type de cellule du corps.
Dans la présente étude, les chercheurs ont d’abord différencié les hiPSC en deux types de cellules progénitrices neurales conçues pour former les couches supérieures et profondes du cortex cérébral. Ces progéniteurs spécifiques à une couche ont été utilisés pour créer deux bio-encres qui ont été imprimées dans des tissus en couches à l’aide de l’impression de gouttelettes 3D, une sorte d’impression qui permet la production de tissus mous sans échafaudage.
Les cellules progénitrices imprimées ont pu mûrir avant que les tissus en couches ne soient implantés dans le tissu cérébral vivant de souris, où leur croissance et leur activité ont été surveillées pendant une semaine.
Schéma du processus depuis la différenciation des cellules souches jusqu’à l’implantation du tissu cérébral à deux couches imprimé en 3D
Les tissus implantés ont montré une forte intégration avec les cellules cérébrales de la souris, notamment la formation de processus neuronaux – les projections en forme de doigt qui conduisent et transmettent les signaux nerveux – et la migration des neurones à travers la frontière entre l’implant et l’hôte. Les cellules implantées ont également montré une activité de signalisation corrélée avec les cellules hôtes, indiquant que les cellules communiquaient entre elles et démontraient une intégration fonctionnelle et structurelle.
« Le développement du cerveau humain est un processus délicat et élaboré avec une chorégraphie complexe », a déclaré Zoltán Molnár, un autre auteur correspondant de l’étude. « Il serait naïf de penser que l’on puisse recréer l’intégralité de la progression cellulaire en laboratoire. Néanmoins, notre projet d’impression 3D démontre des progrès substantiels dans le contrôle du destin et de la disposition des iPSC humaines pour former les unités fonctionnelles de base du cortex cérébral. »
Comme le cortex cérébral humain comporte jusqu’à six couches de cellules nerveuses, les chercheurs prévoient d’affiner la technique d’impression de gouttelettes 3D pour créer des tissus multicouches plus complexes qui imitent de manière plus réaliste l’architecture du cerveau. Outre l’utilisation potentielle du tissu imprimé dans la réparation des lésions cérébrales, ils affirment qu’il pourrait également être utilisé dans le test de drogues, dans les études sur le développement du cerveau et pour améliorer notre compréhension de la cognition.
« Cette avancée marque une étape importante vers la fabrication de matériaux ayant la structure et la fonction complètes des tissus cérébraux naturels », a déclaré Yongcheng Jin, auteur principal de l’étude. « Ces travaux offriront une occasion unique d’explorer le fonctionnement du cortex humain et, à long terme, ils offriront de l’espoir aux personnes souffrant de lésions cérébrales. »
Des chercheurs ont développé un système de dessalement à énergie solaire qui évite le colmatage par le sel
Les chercheurs ont développé un nouveau système de dessalement à énergie solaire qui produit de grandes quantités d’eau potable et utilise une technique inspirée de l’océan pour éviter le problème du colmatage par le sel. Agrandi, le système pourrait fournir suffisamment d’eau potable pour répondre aux besoins quotidiens d’une petite famille.
Un certain nombre de systèmes de dessalement à énergie solaire ont été développés ces dernières années pour résoudre le problème du maintien d’un approvisionnement durable en eau douce. Cependant, un problème fréquent est l’accumulation de sel, qui obstrue le système et affecte le taux de production d’eau.
Pour surmonter ce problème, des chercheurs du MIT et de l’Université Jiao Tong de Shanghai se sont inspirés d’un phénomène naturel, à savoir la manière dont les courants océaniques profonds sont entraînés par des différences de densité de l’eau, un processus connu sous le nom de circulation thermohaline.
Le nouveau système des chercheurs améliore leur conception précédente, un concept similaire comprenant plusieurs couches appelées « étapes ». Chaque étage contenait un évaporateur et un condenseur qui utilisaient la lumière du soleil pour séparer passivement le sel de l’eau entrante. Bien qu’il utilisait efficacement l’énergie du soleil pour évaporer l’eau, il s’est bouché au bout de quelques jours à cause de l’accumulation de sel. Ainsi, les chercheurs ont essayé une version de la circulation thermohaline comme moyen d’atténuer l’accumulation de sel.
Le nouveau design comporte un seul étage qui ressemble à une fine boîte, surmontée d’un matériau sombre qui absorbe la chaleur du Soleil. À l’intérieur, la boîte est séparée en une partie supérieure et une partie inférieure. L’eau coule à travers la moitié supérieure, où le plafond est recouvert d’une couche d’évaporateur qui utilise la chaleur solaire pour réchauffer et évaporer toute eau entrant en contact direct. La vapeur d’eau est acheminée vers la section inférieure, où une couche de condenseur refroidit la vapeur en eau potable sans sel.
La boîte entière est inclinée, ce qui, en combinaison avec l’énergie thermique de la lumière du soleil, fait tourbillonner l’eau lorsqu’elle la traverse. Ce mouvement permet de mettre l’eau en contact avec la couche supérieure d’évaporation tout en gardant le sel en circulation et en l’empêchant de se déposer et de se boucher.
Une représentation graphique du fonctionnement du système de dessalement à l’énergie solaire
« Nous introduisons désormais une convection encore plus puissante, similaire à ce que nous observons généralement dans l’océan, à des échelles kilométriques », a déclaré Zhenyuan Xu, l’un des auteurs correspondants de l’étude. « Lorsque l’eau de mer est exposée à l’air, la lumière du soleil entraîne son évaporation. Une fois que l’eau quitte la surface, le sel reste. Et plus la concentration en sel est élevée, plus le liquide est dense, et cette eau plus lourde veut s’écouler vers le bas. En imitant ce phénomène sur un kilomètre de large dans [une] petite boîte, nous pouvons profiter de cette fonctionnalité pour rejeter le sel.«
Les chercheurs ont découvert que leur système produisait de l’eau douce dans une gamme de concentrations de sel, de l’eau de mer naturelle à une eau sept fois plus salée. Ils disent que si le système était agrandi jusqu’à la taille d’une petite valise, il pourrait produire 4 à 6 L d’eau par heure et durer plusieurs années avant de nécessiter des pièces de rechange.
En raison du taux de production d’eau élevé du système, de son rejet élevé de sel, de sa durée de vie prolongée et du fait qu’il fonctionne à l’énergie solaire et ne nécessite pas d’électricité, les chercheurs affirment que le coût global de fonctionnement du système serait moins cher que le coût de production de l’eau du robinet aux États-Unis.
« Nous montrons que cet appareil est capable d’atteindre une longue durée de vie », a déclaré Yang Zhong, co-auteur de l’étude. « Cela signifie que, pour la première fois, il est possible que l’eau potable produite par la lumière du soleil soit moins chère que l’eau du robinet. Cela ouvre la possibilité au dessalement solaire de résoudre des problèmes réels ».
Mark Zuckerberg, devenu PDG de Facebook, a peut-être impressionné certains d’entre nous avec sa dernière démo d’avatars métaverses beaucoup plus réalistes la semaine dernière.
Mais un coup d’œil dans les coulisses dresse un tableau bien plus troublant des efforts de l’entreprise pour transformer sa vision VR en réalité.
Par exemple, comme le rapporte Reuters , Meta licencie des employés de sa division Reality Labs qui étaient chargés de développer du silicium personnalisé.
L’équipe de 600 membres appelée Facebook Agile Silicon Team (FAST) a été informée de la nouvelle sur les forums de discussion internes en début de semaine.
Même si nous ne savons toujours pas combien d’emplois seront affectés, cette suppression n’inspire pas beaucoup de confiance dans les efforts de l’entreprise pour étoffer son métaverse, un pari qui lui a déjà coûté des milliards de dollars.
Saigner des milliards
Outre les ventes de casques VR peu reluisantes et les espaces VR désertés, Meta a eu du mal à développer des puces en silicium qui rivalisent avec d’autres sociétés comme le fabricant de puces américain Qualcomm, qui produit actuellement les puces pour les casques Meta.
L’équipe FAST n’est même pas le seul département à avoir du mal à fabriquer des puces internes pour l’entreprise, comme le souligne Reuters. Des sources internes ont déclaré à l’agence de presse en avril que Meta était très en retard dans ses efforts pour développer des GPU destinés à alimenter les efforts d’IA de l’entreprise.
À bien des égards, ces derniers licenciements ne devraient pas surprendre. Zuckerberg a averti les investisseurs en mars que des licenciements pourraient avoir lieu « jusqu’à la fin de l’année ».
La société a récemment annoncé son dernier casque VR, le Quest 3, dont la sortie est prévue la semaine prochaine. Mais il reste à voir si suffisamment de clients finiront par débourser 500 $ pour l’appareil afin d’éviter à l’entreprise de perdre encore plus d’argent.
CGI a lancé une nouvelle plateforme de jumeau numérique connue sous le nom de CGI DataTwin360, pour créer des modèles virtualisés de plateformes d’hébergement d’entreprises.
La plateforme diffuse des données en temps réel et fournit des informations sur la comptabilité carbone à ses utilisateurs, leur permettant de comprendre et de réduire l’empreinte carbone de leurs plateformes d’hébergement.
Les données sont collectées à partir de diverses sources, notamment l’Internet des objets (IoT), les capteurs et les informations des journaux système.
Des réglementations telles que la Task Force on Climate-Related Financial Disclosures (TCFD) et la directive européenne sur les rapports de durabilité des entreprises (CSRD) obligeront les entreprises à rendre compte de leur utilisation de carbone de manière beaucoup plus détaillée, et le DataTwin360 permettra de le faire en temps réel via un tableau de bord et un modèle 3D.
Mattie Yeta, directeur du développement durable chez CGI au Royaume-Uni, a déclaré : « Grâce à une étroite collaboration avec nos clients, nous avons pu identifier les défis auxquels ils sont confrontés lorsqu’ils travaillent à atteindre leurs objectifs de carboneutralité. CGI DataTwin360 permet aux organisations d’accélérer leurs progrès vers la carboneutralité en rassemblant des ensembles de données complexes pour les rendre compréhensibles et finalement exploitables.
CGI, fondée en 1976, est une société de conseil en informatique et en affaires. En août 2022 , l’entreprise a obtenu un contrat de 19 millions de livres sterling (23 millions de dollars) sur trois ans auprès du ministère britannique de la Défense pour gérer ses services de centre de données.
Selon une publication de 2014, l’entreprise possédait à l’époque des centres de données au Canada, aux États-Unis, au Brésil, en Finlande, en France, en Allemagne, aux Pays-Bas, en Norvège, au Portugal, en Espagne, en Suède, au Royaume-Uni et en Australie.
L’entreprise ne partage pas beaucoup d’informations sur les emplacements spécifiques ou la capacité des centres de données, affirmant que les sites ont tous une façade « neutre » et n’annoncent pas leur fonction ou le nom de leur entreprise.
OpenAI, la société à l’origine de ChatGPT, envisage de fabriquer ses propres puces d’intelligence artificielle et est allée jusqu’à évaluer une cible d’acquisition potentielle.
L’entreprise n’a pas encore décidé d’aller de l’avant, selon des discussions internes récentes décrites à Reuters. Cependant, depuis au moins l’année dernière, elle a discuté de diverses options pour résoudre la pénurie de puces d’IA coûteuses sur lesquelles OpenAI s’appuie.
Ces options comprenaient la construction de sa propre puce d’IA, une collaboration plus étroite avec d’autres fabricants de puces, dont Nvidia, et la diversification de ses fournisseurs au-delà de Nvidia.
OpenAI n’a pas souhaité faire de commentaires.
Le PDG Sam Altman a fait de l’acquisition d’un plus grand nombre de puces d’IA une priorité absolue pour l’entreprise. Il s’est publiquement plaint de la pénurie d’unités de traitement graphique, un marché dominé par Nvidia, qui contrôle plus de 80 % du marché mondial des puces les mieux adaptées à l’exécution d’applications d’IA.
Les efforts déployés pour obtenir davantage de puces sont liés à deux problèmes majeurs identifiés par Sam Altman : la pénurie de processeurs avancés qui alimentent les logiciels de l’OpenAI et les coûts « exorbitants » associés à l’exploitation du matériel nécessaire pour faire fonctionner ses efforts et ses produits.
Depuis 2020, OpenAI a développé ses technologies d’intelligence artificielle générative sur un superordinateur massif construit par Microsoft, l’un de ses principaux bailleurs de fonds, qui utilise 10 000 unités de traitement graphique (GPU) de Nvidia.
L’exploitation de ChatGPT est très coûteuse pour l’entreprise. Chaque requête coûte environ 4 cents, selon une analyse de Stacy Rasgon, analyste chez Bernstein. Si les requêtes de ChatGPT atteignent un dixième de l’échelle de recherche de Google, il faudra environ 48,1 milliards de dollars de GPU au départ et environ 16 milliards de dollars de puces par an pour qu’il reste opérationnel.
L’ère des puces personnalisées
Un effort pour développer ses propres puces d’IA placerait OpenAI au sein d’un petit groupe de grands acteurs technologiques tels que Google, Amazon et Alphabet qui ont cherché à prendre le contrôle de la conception des puces qui sont fondamentales pour leurs activités.
Il n’est pas certain qu’OpenAI aille de l’avant avec son projet de construction d’une puce personnalisée. Il s’agirait d’une initiative stratégique majeure et d’un investissement lourd qui pourrait représenter des centaines de millions de dollars par an, selon des vétérans de l’industrie. Même si OpenAI consacrait des ressources à cette tâche, le succès ne serait pas garanti.
L’acquisition d’un fabricant de puces pourrait accélérer le processus de construction de la propre puce d’OpenAI – comme cela a été le cas pour Amazon.com et son acquisition d’Annapurna Labs en 2015.
OpenAI a envisagé cette voie au point d’effectuer des vérifications préalables sur une cible d’acquisition potentielle, selon l’une des personnes familières avec ses plans.
Il n’a pas été possible de connaître l’identité de l’entreprise qu’OpenAI a envisagé d’acheter.
Même si OpenAI va de l’avant avec ses plans pour une puce personnalisée – y compris une acquisition – l’effort est susceptible de prendre plusieurs années, laissant la société dépendante des fournisseurs commerciaux tels que Nvidia et Advanced Micro Devices dans l’intervalle.
Certaines grandes entreprises technologiques construisent leurs propres processeurs depuis des années, avec des résultats limités. Les efforts de Meta en matière de puces personnalisées ont connu des problèmes, ce qui a conduit l’entreprise à mettre au rebut certaines de ses puces d’intelligence artificielle. Le propriétaire de Facebook travaille actuellement sur une nouvelle puce qui couvrira tous les types de travaux d’IA.
Le principal bailleur de fonds d’OpenAI, Microsoft, développe également une puce d’IA personnalisée qu’OpenAI est en train de tester, selon The Information. Ces projets pourraient être le signe d’une plus grande distance entre les deux entreprises.
La demande de puces d’IA spécialisées est montée en flèche depuis le lancement de ChatGPT l’année dernière. Les puces spécifiques, ou accélérateurs d’IA, sont nécessaires pour former et faire fonctionner les dernières technologies d’IA générative. Nvidia est l’un des rares fabricants de puces à produire des puces d’IA utiles et à dominer le marché.
Sysdig, le leader de la sécurité cloud alimentée par l’analyse en temps réel d’exécution, a annoncé faire partie du programme Customer First de Gartner Peer InsightsTM dans la catégorie des plateformes de protection des applications cloud-natives (CNAPP). Sysdig a une note moyenne de 4,9 sur 5 sur plus de 65 avis soumis au 21 août.
Les clients se sont montrés très enthousiastes à l’égard de la détection des menaces en temps réel et de la gestion des vulnérabilités de Sysdig, les citant comme permettant des économies de temps et d’argent.
« Nous pensons que tous ces avis clients témoignent de la qualité de notre approche de la sécurité dans le cloud et de la puissance des informations d’exécution », a déclaré Suresh Vasudevan, PDG de Sysdig. « Il est clair que notre technologie unique et notre support offrent une valeur supérieure aux clients. Nous sommes déterminés à continuer à repousser les limites et à permettre à nos clients de rester performants. »
Des scientifiques ont mis au point un nouveau type de fenêtre dynamique capable de passer d’un mode à l’autre, bloquant sélectivement la lumière et/ou la chaleur.
Les fenêtres sont des éléments de base qui laissent passer la lumière et la chaleur, mais il n’est pas toujours souhaitable d’avoir les deux à la fois. Des ingénieurs de l’université d’État de Caroline du Nord (NCSU) ont mis au point un nouveau matériau qui permet aux fenêtres de passer facilement d’un mode à l’autre.
Les nouvelles fenêtres dynamiques pourraient passer d’un mode transparent normal, qui laisse passer la lumière et la chaleur, à un mode qui bloque la chaleur tout en restant transparent à la lumière, et à un mode teinté qui bloque une partie de la lumière mais pas la chaleur. Cela devrait permettre aux utilisateurs d’être couverts en toute saison.
La clé de tout cela est un petit matériau baptisé « oxyde de tungstène », que l’on retrouve souvent dans les fenêtres dynamiques qui fonctionnent sur le principe de l’électrochromisme. Normalement transparent, l’oxyde de tungstène s’assombrit et bloque la lumière lorsque vous appliquez un signal électrique, ce qui le rend pratique pour les fenêtres qui se teintent à la demande.
Mais dans cette nouvelle étude, les chercheurs de la NCSU ont découvert un tout nouveau tour de passe-passe. L’ajout d’eau le transforme en oxyde de tungstène hydraté, ce qui, lorsqu’il est utilisé dans des fenêtres électrochromes, lui confère un réglage supplémentaire.
Lorsqu’il est éteint, il reste transparent à la lumière et à la chaleur, ce qui est idéal pour les mornes journées d’hiver où l’on a besoin d’un maximum de ces deux éléments. Lorsque des électrons et des ions lithium sont injectés dans le matériau, celui-ci passe d’abord par une phase où il bloque la lumière infrarouge (ressentie comme de la chaleur) tout en restant transparent aux longueurs d’onde de la lumière visible. Enfin, lorsque davantage d’électrons sont injectés dans le matériau, celui-ci passe à une phase sombre où il bloque à la fois la lumière visible et la lumière infrarouge, ce qui est parfait pour l’été.
La raison exacte pour laquelle l’oxyde de tungstène hydraté fonctionne de la sorte reste incertaine, mais les scientifiques de la NCSU ont une hypothèse.
« La présence d’eau dans la structure cristalline rend la structure moins dense, ce qui la rend plus résistante à la déformation lorsque des ions lithium et des électrons sont injectés dans le matériau », explique Jenelle Fortunato, premier auteur de l’étude.
« Notre hypothèse est que, comme l’oxyde de tungstène hydraté peut accueillir plus d’ions lithium que l’oxyde de tungstène normal avant de se déformer, on obtient deux modes. Il y a un mode « froid » – lorsque l’injection d’ions lithium et d’électrons affecte les propriétés optiques, mais que le changement structurel n’a pas encore eu lieu – qui absorbe la lumière infrarouge. Ensuite, après le changement structurel, il y a un mode « sombre » qui bloque à la fois la lumière visible et la lumière infrarouge ».
Si les fenêtres dynamiques en cours de développement ne manquent pas, il est rare d’obtenir autant de modes dans un même système. Lorsque c’est le cas, cela nécessite généralement des installations plus encombrantes. Dans ce cas, comme un seul matériau est nécessaire, l’épaisseur du verre et les besoins en énergie devraient être plus ou moins les mêmes que pour les vieilles fenêtres en oxyde de tungstène.
« La découverte d’un contrôle de la lumière à double bande (infrarouge et visible) dans un seul matériau déjà bien connu de la communauté des fenêtres intelligentes pourrait accélérer le développement de produits commerciaux aux caractéristiques améliorées », a déclaré Delia Milliron, coauteur correspondant de l’étude.
Le professeur Volkan Cevher et son équipe du laboratoire LIONS, notamment le doctorant Fabian Latorre, ont réussi à renforcer la sécurité pour faire face à ces attaques.
Des scientifiques de l’EPFL ont découvert un problème fondamental dans le cadre de l’entraînement des systèmes d’apprentissage automatique et ont mis au point une nouvelle formulation afin de les renforcer contre les attaques contradictoires.
En repensant complètement la manière dont la majorité des systèmes d’intelligence artificielle (IA) se protègent contre les attaques, des chercheurs de la Faculté des sciences et techniques de l’ingénieur de l’EPFL ont mis au point une nouvelle approche d’entraînement. Le but? S’assurer que les modèles d’apprentissage automatique, notamment les réseaux de neurones profonds, fonctionnent toujours comme prévu, améliorant ainsi grandement leur fiabilité.
L’approche d’entraînement basée sur la pensée à somme nulle a été remplacée avec succès par un nouveau modèle dont le fonctionnement repose sur une stratégie de résistance aux attaques adaptative pour créer un scénario d’entraînement plus intelligent.
Les résultats montrent que ce modèle peut être utilisé pour une grande variété d’activités dépendantes de l’intelligence artificielle pour la classification comme, par exemple, la protection des contenus des services de diffusion vidéo en flux continu, les véhicules autonomes et la surveillance.
Les premiers travaux de recherche ont été menés dans le cadre d’une collaboration étroite entre le Laboratory for Information and Inference Systems (LIONS) de la Faculté Sciences et Techniques de l’Ingénieur de l’EPFL et des chercheuses et chercheurs de l’université de Pennsylvanie (UPenn).
Dans un monde numérique où le volume de données dépasse les capacités de surveillance de l’être humain, les systèmes d’intelligence artificielle exercent un pouvoir très important dans la prise de décisions critiques.
Toutefois, ces systèmes ne sont pas protégés contre certaines attaques subtiles et puissantes. Des personnes malintentionnées peuvent tromper un système en apportant des changements minimes qui leur permettront d’écrire des données et de duper de manière sournoise un modèle d’IA. Le professeur Volkan Cevher et son équipe du laboratoire LIONS, notamment le doctorant Fabian Latorre, ont réussi à renforcer la sécurité pour faire face à ces attaques.
Leurs travaux ont été récompensés par un Best Paper Award lors de l’atelier New Frontiers and Adversarial Machine Learning animé lors de la Conférence internationale sur l’apprentissage automatique 2023. Les scientifiques ont réussi à identifier et à corriger une erreur dans un environnement d’entraînement très bien établi, ce qui a permis d’améliorer les défenses de l’IA face aux manipulations antagonistes.
Selon Volkan Cevher, «le nouveau cadre démontre bien que l’une des idées centrales de l’entraînement contradictoire comme jeu à somme nulle et à deux joueurs est imparfait et doit être retravaillé afin d’améliorer de manière durable la robustesse».
Tous les systèmes d’intelligence artificielle sont exposés aux attaques
Le nombre de vidéos hébergées sur les plateformes de vidéos en ligne comme YouTube est bien trop important. Aussi, il est impossible que des êtres humains puissent toutes les analyser. YouTube fait donc appel à l’IA pour classer les vidéos en analysant leur contenu afin de vérifier que celui-ci respecte certaines normes. Ce processus automatique est appelé «classification».
Toutefois, les systèmes de classification sont exposés aux attaques et peuvent être sabotés de manière sournoise. En effet, un hacker malveillant, appelé «adversaire» dans le domaine de la théorie des jeux, peut ajouter du bruit de fond à une vidéo présentant du contenu inapproprié.
Alors que le bruit de fond ne peut pas être détecté par un être humain, celui-ci est suffisant pour perturber le système d’IA et, ainsi, contourner les dispositifs de sécurité du contenu YouTube. Des enfants peuvent alors tomber sur la vidéo et se retrouver face à du contenu à caractère violent ou sexuel, même si les contrôles parentaux sont activés.
L’exemple de YouTube n’en est qu’un parmi tous les autres. Il met en exergue une faiblesse bien connue dans les systèmes de classification basés sur l’IA. Cette faiblesse est inquiétante car ces systèmes sont de plus en plus utilisés, au point d’avoir une influence sur notre quotidien.
En effet, ceux-ci sont notamment utilisés pour garantir la sécurité des véhicules autonomes, améliorer la sécurité dans les aéroports et optimiser les diagnostics médicaux dans les établissements de santé. Pour contrer ces attaques, les ingénieures et ingénieurs renforcent les défenses du système grâce à l’entraînement contradictoire, un mécanisme semblable à la vaccination pour lutter contre les virus.
L’entraînement contradictoire se présente généralement sous la forme d’un jeu à somme nulle à deux joueurs. Un défenseur tente de minimiser l’erreur de classification, tandis que l’adversaire cherche à la maximiser. Si l’un gagne, l’autre perd; d’où la notion de somme nulle.
Aller au-delà du paradigme du jeu à somme nulle
Cependant, cette approche théorique est confrontée à des défis lors de la transition du concept à une application dans le monde réel. Pour remédier à cela, les chercheuses et les chercheurs proposent une solution qui altère littéralement le paradigme: une stratégie de jeu à somme non nulle.
Le laboratoire LIONS, en collaboration avec les chercheuses et les chercheurs du Département d’ingénierie électrique et des systèmes (Department of Electrical and Systems Engineering) de l’UPenn dont le professeur Hamed Hassani, ancien étudiant de l’EPFL, son étudiant doctorant Alex Robey et son confrère le professeur George Pappas, a mis au point une nouvelle formule d’entraînement contradictoire et un algorithme qui, contrairement à l’approche traditionnelle à somme nulle, nécessite que le défenseur et l’adversaire optimisent plusieurs objectifs différents.
Cela a permis de créer une formulation unique, c’est-à-dire une optimisation continue à deux niveaux qu’ils ont nommé «BETA» pour «BEst Targeted Attack». Sur le plan technique, le défenseur minimise une limite supérieure sur l’erreur de classification, tandis que l’adversaire maximise la probabilité d’erreur de classification en utilisant un objectif pour les marges d’erreur.
En créant un modèle contradictoire avec un adversaire plus fort qui reflète au mieux les situations réelles, les systèmes de classification de l’IA peuvent être entraînés plus efficacement. En cas de menace directe, les défenseurs ne se contentent pas uniquement d’optimiser.
En effet, ils adoptent une stratégie complète qui prend en compte les pires menaces possibles. Comme le souligne Volkan Cevher, «Fabian et ses collaborateurs et collaboratrices n’ont pas une vision réductrice de l’apprentissage automatique contradictoire. En effet, ils le contextualisent tout en le maintenant ancré dans la théorie de l’apprentissage automatique, la fiabilité et la robustesse. »
Cette vision d’ensemble de la classification de l’entraînement leur a permis d’identifier une erreur et d’élaborer la formulation de ce qui a été, jusqu’à aujourd’hui, le moyen d’entraîner les modèles d’apprentissage automatique. En corrigeant cette erreur, nous avons réussi à rendre les systèmes d’IA plus robustes».
Ce procès pourrait « ouvrir la boîte de pandore ».
Le casse-tête du droit d’auteur : La semaine dernière, un certain nombre d’auteurs de renom – dont George R. R. Martin de « Game of Thrones » et le célèbre romancier juridique John Grisham – ont intenté une action en justice contre OpenAI, alléguant que son chatbot ChatGPT enfreint leurs droits d’auteur en s’inspirant directement de leurs œuvres.
Et selon des experts juridiques, ils pourraient bien avoir une chance décente de gagner le procès.
John Grisham est un écrivain américain, auteur de plusieurs romans policiers qui appartiennent au sous-genre du roman judiciaire, de récits qui décrivent le Sud rural des États-Unis et d’ouvrages de littérature d’enfance et de jeunesse. On lui doit entre autres, les romans « La Firme » ou « l’Affaire Pelican »
« Si quelqu’un doit gagner sur les plaintes de violation de droits d’auteur à l’encontre d’OpenAI, c’est probablement le procès qui a le plus de chances d’aboutir », a déclaré à ABC News James Grimmelmann, professeur de droit numérique et de droit de l’information à la Cornell University Law School.
La boîte de Pandore
Il s’agit d’une bataille juridique épineuse qui risque de durer un certain temps. Le secret avec lequel OpenAI dissimule ce que fait exactement ChatGPT complique considérablement les choses. Nous ne savons pas exactement quelles données il ingère, ni ce qu’il en fait – une confusion qui, curieusement, est probablement partagée par ses propres chercheurs.
« La principale allégation est que l’ingestion d’œuvres d’auteurs en tant que données d’entraînement est en soi une reproduction des œuvres », a déclaré Pamela Samuelson, professeur à l’université de Californie, à la chaîne ABC.
En termes simples, l’allégation est que OpenAI enfreint le droit d’auteur simplement en scannant les œuvres des auteurs et en entraînant ses algorithmes avec elles.
Mais s’agit-il de copier des livres ou simplement de les scanner sans jamais les reproduire techniquement ? La distinction peut sembler pédante, mais c’est le genre d’éléments que les avocats vont passer au peigne fin pour se préparer à l’épreuve de force juridique.
« Nous savons comment fonctionnent les infractions au droit d’auteur, mais nous ne savons pas comment fonctionnent ces ensembles de données », a déclaré Brian Buckmire, collaborateur juridique d’ABC News, à la chaîne de télévision. « Nous n’avons même pas la possibilité de regarder sous le capot pour voir quel type d’information ils utilisent ou n’utilisent pas.«
L’anarchie de la paternité
Quelle qu’en soit l’issue, ce dernier procès – qui est loin d’être le premier en matière de droits d’auteur visant OpenAI – pourrait contraindre l’entreprise à faire la lumière sur cette affaire et à « ouvrir la boîte de Pandore », selon Brian Buckmire.
Entre-temps, OpenAI et Meta tentent de faire rejeter une précédente plainte déposée par l’humoriste Sarah Silverman au motif que le comportement de l’entreprise relevait de l' »usage loyal », une doctrine juridique « fameusement ouverte », selon James Grimmelman.
Jusqu’à présent, OpenAI est restée très discrète sur la dernière plainte déposée par les auteurs, se contentant d’émettre des commentaires généraux sur les « discussions constructives en général avec les créateurs » dans divers médias.
Si OpenAI parvenait à faire rejeter la plainte, cela pourrait créer un précédent troublant permettant à n’importe qui de « créer un modèle d’IA en l’entraînant sur presque toutes les données qu’il peut trouver », comme l’a déclaré James Grimmelman à ABC – et cela devrait inquiéter tous les créateurs de contenu.
Têtes hautes: Le métavers caricatural de Mark Zuckerberg, que nous avons tous harcelé sans relâche, pourrait bien devenir quelque chose de vraiment impressionnant. Jeudi, le podcasteur Lex Fridman a publié ce qu’il appelle la « première interview dans le Metaverse« , où lui et le PDG de Meta ont une conversation en RV, en utilisant leurs avatars étonnamment réalistes.
Finies les imitations de Mark, sans jambes et à l’allure stupide. Ici, alors que Lex Fridman et Mark Zuckerbeg sont assis dans des pièces différentes, à différents endroits du pays, et portent des casques Quest Pro, leurs avatars dans le Metaverse, chacun étant un portrait en 3D des épaules et du haut sur un fond noir, discutent de manière transparente tout en ressemblant de manière inquiétante à leurs homologues dans la vie réelle.
« On a l’impression d’être dans la même pièce », déclare Lex Fridman dans le podcast, son avatar exprimant fidèlement un pince-sans-rire. « C’est vraiment la chose la plus incroyable que j’aie jamais vue.
Ces clones photoréalistes, connus sous le nom d’avatars Codec, sont le fruit d’un travail de longue haleine de Mark Zuckerberg.
Ils sont créés à partir de scans approfondis du visage de l’utilisateur, qui sont utilisés pour former un modèle informatique, a expliqué Mark Zuckerberg, présenté sous la forme d’un codec. Le casque détecte ensuite les expressions faciales de l’utilisateur et les associe à l’avatar 3D en temps réel.
À partir de là, « il peut envoyer une version codée de ce à quoi vous êtes censé ressembler sur le câble », précises le patron de Meta, qui affirme que cette méthode est plus efficace en termes de bande passante que la transmission d’une vidéo.
Tout cela augmente évidemment la charge sur le matériel qui effectue le rendu, mais Mark Zuckerberg affirme que le casque Quest Pro déjà disponible qu’ils utilisent ici peut piloter la technologie.
Travaux en cours
Il faut rendre à César ce qui lui appartient : cette technologie pourrait changer la donne si le produit final est à la hauteur de ce qui est montré ici dans l’utilisation quotidienne.
Mais avant de vous faire de faux espoirs, notez qu’il ne s’agit pas d’une démonstration en direct et que, pour être franc, elle a été réalisée avec deux personnes qui ne sont pas très expressives.
Il convient également de noter que les avatars présentés ici ont été créés à l’aide d’un balayage de pointe, d’une durée de plusieurs heures, comprenant des centaines de caméras, ce à quoi le consommateur moyen n’aura pas accès.
Le consommateur moyen n’y aura pas accès. À la place, Mark Zuckerberg explique que le projet pour l’avenir est de pouvoir effectuer un « balayage très rapide » à l’aide d’un smartphone.
« Il suffit de prendre son téléphone, de l’agiter devant son visage pendant quelques minutes, de prononcer quelques phrases, de faire un certain nombre d’expressions… et de produire quelque chose qui soit de la qualité de ce que nous avons actuellement », a-t-il déclaré à Lex Fridman.
Nous imaginons qu’un avatar réalisé à partir d’un scan de smartphone sera bien loin de ce qui est montré ici. Néanmoins, nous devons admettre qu’il s’agit de l’aspect le plus impressionnant du projet de métavers en difficulté de Zuckerberg.
Solar Airship One effectuera le premier voyage en dirigeable sans émission de carbone et sans escale autour du monde
L’aviation longue distance zéro émission est tout à fait possible… À condition de ne pas être pressé. Solar Airship One mettra 20 jours pour parcourir tout le tour de l’équateur, soit environ 40 000 km, en un seul saut sans émissions.
Le dirigeable de 151 m de long aura toute sa surface supérieure recouverte d’un film solaire – soit environ 4 800 mètres carrés
De jour, les panneaux solaires feront fonctionner les systèmes de propulsion électrique du dirigeable, tout en accumulant de l’énergie supplémentaire pour le transport de nuit en électrolysant l’eau en hydrogène. La nuit, l’hydrogène circulera dans une pile à combustible, fournissant ainsi l’énergie nécessaire pour continuer à fonctionner.
Il sera piloté par une équipe de trois personnes : Michel Tognini, ancien astronaute français et pilote de l’armée de l’air, Dorine Bourneton, paraplégique ayant survécu à un accident d’avion et pilote de voltige, et Bertrand Piccard, aventurier en série et « inspirateur », qui a réussi le premier tour du monde en ballon sans escale en 1999 et qui a également piloté le Solar Impulse 2 lors du premier vol solaire autour du monde en 16 mois et demi en 2015-2016.
La nuit, le dirigeable fonctionnera avec de l’hydrogène accumulé pendant la journée.
En sortant le vieux calculateur, il semble que l’équipe d’Euro Airship s’attende à une vitesse moyenne d’un peu plus de 83 km/h – donc oui, moins d’un dixième de la vitesse d’un avion de ligne utilisant des combustibles fossiles. Mais les dirigeables présentent certains avantages clés : vous pouvez vous arrêter et redémarrer à peu près n’importe où sans avoir besoin d’une piste, par exemple.
En effet, alors que des projets comme l’AirYacht et l’Airlander visent à ressusciter le dirigeable en tant que forme de transport de passagers de luxe, d’autres pensent que les dirigeables remplis d’hydrogène sont l’avenir du transport de marchandises à zéro émission , transportant 8 à 10 fois la charge utile d’un avion-cargo, au quart du prix, et jusqu’à 10 fois la vitesse d’un cargo.
Le voyage devrait durer environ 20 jours
L’énergie que le Solar Airship One utilisera est renouvelable, mais un élément clé ne l’est pas. Sa structure rigide est remplie de 15 enveloppes distinctes contenant au total 50 000 mètres cubes d’hélium. Fait amusant : l’hélium est le seul élément sur Terre qui est totalement non remplaçable, car lorsqu’il s’échappe dans l’air, il s’élève hors de l’atmosphère et s’éjecte dans l’espace .
L’équipe d’Euro Airship se prépare à entreprendre son tour du monde zéro carbone en 2026, en restant proche de l’équateur et à une altitude d’environ 6 000 m
Une image générée par Paint Cocreator à partir de la description d’un utilisateur.
Microsoft teste actuellement un outil de création d’images à partir de texte, alimenté par DALL-E, dans Microsoft Paint pour Windows 11, a annoncé l’entreprise dans un billet de blog. Baptisé Paint Cocreator, cet outil crée des œuvres d’art à partir d’une description saisie par l’utilisateur.
L’utilisateur peut également sélectionner un style artistique et Cocreator en génère alors trois variantes. Après avoir choisi celui qu’il préfère, l’utilisateur peut modifier l’œuvre, par exemple en ajoutant des calques – une fonction également nouvelle dans Paint.
Il reste à voir si le dernier modèle de génération d’images DALL-E d’OpenAI convertit bien le texte en image – les générations précédentes de DALL-E ont eu du mal à interpréter correctement les données textuelles. En outre, DALL-E a été sujet à des préjugés sexistes et raciaux. Dans son billet de blog, Microsoft indique avoir pris des mesures pour empêcher la création d’images « nuisibles, offensantes ou inappropriées », mais ne donne pas beaucoup de détails.
Paint Cocreator devrait être disponible pour tous les utilisateurs de Windows 11 dans quelques semaines, mais pour l’instant, Microsoft déploie lentement la fonctionnalité pour les Windows Insiders. Les utilisateurs doivent s’inscrire sur une liste d’attente pour avoir accès à l’aperçu. Ils recevront ensuite 50 crédits, dont chacun leur permettra de créer une nouvelle série d’images. Ce système de crédits pourrait changer après la fin de la période de prévisualisation, et il semble que les utilisateurs devront payer à l’avenir.
Pour l’instant, Paint Cocreator est disponible en avant-première pour les utilisateurs anglophones des États-Unis, du Royaume-Uni, de la France, de l’Australie, du Canada, de l’Italie et de l’Allemagne.
Cocreator est l’une des nombreuses nouvelles mises à jour créatives alimentées par l’IA que Microsoft a récemment ajoutées à Windows 11. Une nouvelle fonctionnalité de l’application Photos de Microsoft pour Windows 11, par exemple, estompe les arrière-plans et met en évidence le sujet ou la zone préférée du client. Les utilisateurs peuvent également régler l’intensité du flou.
Parmi les autres nouveaux outils alimentés par l’IA, citons la barre latérale Windows Copilot, un assistant IA qui vous permet de régler les paramètres de votre PC, de lancer des applications, de poser des questions, etc.
Juste à temps pour le lancement des lunettes VR Quest 3 de Meta, Qualcomm a annoncé aujourd’hui ses nouvelles puces pour les plateformes XR et AR : le Snapdragon XR2 Gen 2 pour les appareils VR et de réalité mixte et le AR1 Gen 1, spécialement conçu pour les lunettes intelligentes.
Cela fait un moment que Qualcomm n’a pas sorti de nouvelle plateforme XR. Le XR2 Gen 1 a maintenant plus de trois ans et alors que l’on spéculait sur le lancement d’un XR3 aujourd’hui, l’entreprise a décidé de conserver la marque XR2. Apparemment, Qualcomm conçoit la marque XR[x] de la manière suivante : le XR1 est le niveau » haute qualité » et le XR2 le niveau » qualité supérieure « , avec une possibilité d’ajouter d’autres niveaux à l’avenir.
L’entreprise promet néanmoins une amélioration de 2,5 fois des performances du GPU et de 8 fois des performances de l’IA, tout en étant nettement plus économe en énergie. Qualcomm indique également que le XR2 Gen 2 a été optimisé pour alimenter deux écrans 3k et prendre en charge des entrées provenant de 10 caméras et capteurs, avec une latence de 12 ms pour la vidéo pass-through (vision à « travers ») pour les applications de réalité mixte.
Interrogé sur le cycle de lancement lors d’une conférence de presse précédant l’annonce d’aujourd’hui, Hugo Swart, vice-président et directeur général de la division XR de Qualcomm, a indiqué que le rythme de développement de l’entreprise était dicté par des facteurs technologiques et commerciaux.
« Les principaux défis concernent la puissance, la latence, la taille et les performances. Ces dernières sont, bien entendu, étroitement liées à la résolution de l’écran « , a-t-il déclaré. Or, plus la résolution de l’écran est élevée, plus il faut d’énergie pour faire fonctionner le casque. « Je ne peux pas mettre 100 watts sur votre tête. Au mieux, peut-être 20. Dans l’idéal, il faut compter entre 10 et 15 watts. C’est donc la magie qu’il nous faut opérer : comment mettre tout cela dans un seul morceau de silicone, à un prix abordable ».
Hugo Swart a également profité de l’occasion pour s’en prendre à Apple, à son Vision Pro onéreux et à son matériel conçu sur mesure. « Je pense que vendre un appareil à plus de 3 000 dollars – combien de personnes peuvent vraiment se le permettre ? Il faut vraiment que tout le monde puisse se permettre d’en faire l’expérience. Et c’est ce que nous visons. »
Qualcomm a déclaré qu’à ce jour, ses puces XR équipent environ 80 appareils, couvrant le spectre de la réalité virtuelle à la réalité mixte. « Nous constatons déjà une forte traction sur le marché grand public avec des produits tels que les jeux, le fitness, l’engagement social, le divertissement, les événements en direct, mais aussi, et c’est très important, dans les entreprises, avec des produits tels que la formation, l’éducation, la médecine et bien d’autres », souligne Hugo Swart.
En ce qui concerne l’AR1 Gen 1, si vous prêtez inutilement attention aux annonces de produits de Qualcomm, vous vous souviendrez peut-être que la société a annoncé un système AR2 Gen 1 sur une puce lors de son sommet Snapdragon de l’année dernière.
Les choix de Qualcomm en matière de marque ne manquent pas de prêter à confusion, mais à la base, les puces AR1 étaient destinées à des lunettes intelligentes autonomes plus proches des Google Glass, dotées de caméras pour la capture de photos et de vidéos et d’un ou deux écrans. La série AR2, quant à elle, présente une architecture multi-puces et est destinée aux lunettes de réalité augmentée immersive de type HoloLens, avec six degrés de liberté et des écrans haute résolution.
Malgré les efforts de nombreux fournisseurs et de grandes marques, les lunettes intelligentes dotées d’un écran sont restées un produit de niche. Qualcomm espère clairement que cette nouvelle plateforme apportera un nouveau souffle à ce marché grâce à un pipeline de traitement d’images plus puissant et à ce que l’entreprise appelle l’IA « on-glass » pour les commandes vocales et l’annulation du bruit, par exemple. L’AR1 Gen 1 peut prendre en charge des écrans d’une résolution de 1280 x 1280 par œil et supporte trois degrés de liberté.
Les nouvelles lunettes intelligentes Stories de Ray-Ban utiliseront la nouvelle plateforme AR1 Gen 1, mais comme la plupart des lunettes intelligentes actuelles, elles ne comporteront pas d’écran, même si l’AR1 le prend en charge. L’affichage tête haute est un problème beaucoup plus difficile à résoudre que l’intégration d’une caméra dans les lunettes, même si cela augmenterait considérablement l’utilité de ces plates-formes.
« La plateforme permet à l’utilisateur de capturer, de partager ou de diffuser en direct, les mains libres, directement à partir des lunettes », explique Qualcomm. « En outre, l’IA sur l’appareil permet des expériences d’assistant personnel telles que l’amélioration de la qualité audio, la recherche visuelle et la traduction en temps réel. Enfin, la prise en charge d’un affichage tête haute visuel permet de consommer du contenu, y compris des vidéos, qui s’intègrent parfaitement dans le champ de vision de l’utilisateur. »
Le Quest 3 couvre toujours l’ensemble de votre visage, mais vous pouvez désormais mieux voir à travers.
Le métavers est cool, mais le fait de pouvoir regarder son téléphone ou sa famille l’est tout autant. Le nouveau casque de Meta est doté de nouvelles manettes, de caméras améliorées et d’un grand nombre de nouveaux jeux.
Meta vient d’annoncer son nouveau casque, le Quest 3, qu’elle présente comme un énorme bond en avant – pas seulement pour la gamme Quest, mais pour toute la vision du futur de Meta. Le Quest 3 n’est pas un simple casque de réalité virtuelle comme le Quest 2, mais plutôt un dispositif de réalité mixte comme le Vision Pro d’Apple.
Cela signifie que vous pouvez voir ce qui se passe dans le monde réel et interagir avec les objets qui vous entourent, tout en portant votre casque. Le Quest 3 est proposé à partir de 499,99 $, il peut être précommandé dès maintenant et sera expédié à partir du 10 octobre.
Meta a déjà annoncé le Quest 3 en juin, alors qu’il essayait de devancer le lancement de la Vision Pro. Même maintenant, Meta essaie clairement de se positionner comme le casque de réalité mixte le plus grand public – « vous n’avez pas besoin de fils, vous n’avez pas besoin de packs de batterie », a déclaré le chef de produit Quest 3, Palwasha Khatri, lors d’un briefing.
L’annonce officielle complète la fiche technique de l’appareil de manière importante. Le Quest 3 est équipé d’un processeur Snapdragon XR2 Gen 2 et de 8 Go de RAM, ce qui, selon Meta, double les performances graphiques par rapport au Quest 2 et devrait être nettement supérieur à celles du Quest Pro, qui utilise la puce XR2 de dernière génération.
Le Quest 3 le moins cher est livré avec 128 Go de stockage interne, et pour 649,99 dollars, vous obtenez 512 Go. (Meta affirme que l’autonomie de la batterie est « à peu près la même que celle du Quest 2 », ce qui signifie entre 90 minutes et trois heures, en fonction de ce que vous faites.
Les lentilles du Quest 3 sont les meilleures que Meta ait livrées jusqu’à présent : un écran LCD 2064 x 2208 devant chaque œil, utilisant une pile d’affichage similaire à celle du Quest Pro. Le champ de vision du Quest 3 est de 110 degrés horizontaux et 96 degrés verticaux, soit une augmentation de 15 % par rapport au Quest 2 et une légère amélioration par rapport au Quest Pro. Vous pouvez ajuster les lentilles à l’aide d’une nouvelle molette située à l’extérieur du casque, ce qui devrait vous permettre de trouver plus facilement l’endroit qui vous convient.
Les écrans du Quest 3 devraient être plus beaux que ceux des casques Meta.
Dans la plupart des cas, le Quest 3 semble être une amélioration du Quest 2 (ce qui est logique) et du Quest Pro (dont Meta semble vouloir prétendre qu’il n’existe pas et qu’il n’a jamais existé). Certaines spécifications et technologies du Quest 3 sont empruntées au Pro, d’autres sont des améliorations naturelles du Quest 2, vieux de trois ans. Dans tous les cas, il semble clair que le Quest 3 est le meilleur casque de Meta, et le plus utilisable, par une large marge.
La différence matérielle la plus importante concerne les caméras : deux nouvelles caméras couleur situées à l’avant du casque offrent une vidéo passthrough nettement améliorée. (Qualcomm affirme que le XR2 Gen 2 présente une latence moyenne de 12 millisecondes, comparable à celle du Vision Pro d’Apple, mais précise que cela dépend de la résolution de l’image que ses partenaires essaient de transmettre). Vous pouvez choisir d’utiliser le Quest 3 en mode VR totalement immersif ou dans ce qu’il appelle un mode « mixte » qui vous permet de voir à la fois votre environnement réel et le jeu ou le contenu que vous regardez.
Il ne s’agit pas encore de réalité augmentée holographique, mais c’est un pas dans la bonne direction. Pour passer d’un mode à l’autre, vous pouvez utiliser la manette ou simplement appuyer deux fois sur deux de vos doigts ; ce geste de double appui est également au cœur du Vision Pro et semble être la manière convenue de faire fonctionner un casque.
Le casque lui-même est un peu plus petit et légèrement plus lourd que le modèle précédent (515 grammes contre 503 pour le Quest 2). Meta affirme qu’il a été redessiné pour être plus confortable à porter, mais nous devrons attendre de voir ce qu’il en est.
Les manettes Touch Plus sont plus petites et plus légères – et techniquement, vous n’en avez même pas besoin.
Les manettes Touch Plus de la Quest 3, comme on pouvait s’y attendre, suppriment le gros anneau de suivi au profit de capteurs infrarouges qui suivent votre position. Elles sont également plus haptiques, ce qui devrait vous permettre d’obtenir des vibrations plus viscérales lorsque vous jouez – et, bien sûr, la Quest 3 prend en charge le suivi de la main, ce qui vous permet de vous passer complètement des manettes si vous le souhaitez.
Les manettes Touch Plus de la Quest 3, comme prévu, éliminent le gros anneau de suivi en faveur de capteurs infrarouges qui suivent votre position. Elles ont également une haptique améliorée, ce qui devrait vous permettre d’obtenir des vibrations plus viscérales lorsque vous jouez – et, bien sûr, la Quest 3 prend en charge le suivi de la main, ce qui vous permet de vous débarrasser complètement des manettes si vous le souhaitez.
En ce qui concerne les possibilités offertes par le Quest 3, Meta semble toujours le considérer comme un appareil de jeu. Tous les jeux du Quest 2 sont jouables sur le nouveau casque, et des jeux comme Roblox, Assassin’s Creed Nexus, et Asgard’s Wrath 2 arrivent également sur le nouvel appareil.
Meta le présente également comme un appareil de fitness et de bien-être, qui a connu un succès surprenant dans la RV grâce à des applications comme Supernatural. Et bien sûr, Meta a Horizon Worlds et Horizon Workrooms et un grand rêve sur le futur métaverse de tout, mais le lancement de Quest 3 semble se concentrer sur les possibilités plus actuelles.
Canonical, un leader de l’Open Source et éditeur d’Ubuntu, annonce la disponibilité de Real-time Ubuntu Pro 22.04 LTS sur AWS Marketplace, un catalogue numérique contenant des milliers de listes de logiciels d’éditeurs indépendants qui facilitent la recherche, le test, l’achat et le déploiement de logiciels fonctionnant sur Amazon Web Services (AWS).
Depuis plus de dix ans, Canonical et AWS collaborent ensemble pour s’assurer que les clients d’AWS puissent déployer Ubuntu sur AWS. Canonical fournit plus de 40 types d’images de serveur sur AWS couvrant des services AWS clés comme Amazon Elastic Compute Cloud (Amazon EC2), AWS Graviton, AWS Outposts et Amazon Elastic Kubernetes Service (Amazon EKS).
Au-delà du serveur, Canonical offre des capacités de développement mobile grâce à Anbox Cloud Appliance sur AWS Marketplace, et la disponibilité d’Ubuntu Desktop sur Amazon WorkSpaces et Amazon AppStream 2.0. Que les clients innovent sur des workloads mobiles, de bureau ou basés sur des serveurs, Canonical s’assure que les clients d’AWS puissent choisir des solutions open source sécurisées, supportées et prêtes pour l’entreprise.
En le lançant en premier sur AWS Marketplace, AWS devient la seule option d’approvisionnement basée sur le cloud pour Real-time Ubuntu. Les entreprises des secteurs de l’automobile, de l’industrie et des télécommunications peuvent désormais exploiter le calcul en temps réel et réduire le temps de développement en validant leur code dans un environnement cloud.
En outre, les correctifs CVE critiques et de haute sécurité pour le noyau en temps réel sont activés par défaut sur Ubuntu Pro et appliqués automatiquement au moment de l’exécution. Canonical publie quotidiennement des images mises à jour, ce qui garantit que la sécurité est intégrée dès le lancement d’une instance.
Avec dix ans de maintenance pour les workloads limités dans le temps, Real-time Ubuntu sur AWS Marketplace est parfait pour le développement dans un environnement de jumeaux numériques.
Les développeurs peuvent s’appuyer en toute sécurité sur Real-time Ubuntu lorsqu’ils exécutent leur code dans le cloud, grâce à son flux fiable de mises à jour de sécurité. L’engagement de Canonical en faveur d’un support de qualité professionnelle et d’une maintenance à long terme garantit la longévité du noyau en temps réel sur AWS Marketplace. Les entreprises peuvent ainsi se concentrer sur leurs activités et réduire les délais de mise sur le marché.
« Real-time Ubuntu marque une avancée significative dans le domaine des véhicules software-defined, en facilitant un développement rapide et un déploiement transparent », a déclaré Edoardo Barbieri, chef de produit chez Canonical. « Grâce à notre présence sur AWS Marketplace, OEM et fournisseurs de niveau 1 peuvent désormais structurer leurs stratégies en se basant sur des solutions open-source fiables et sécurisées sur le cloud. »
« En travaillant avec Canonical et en fournissant un accès à Real-time Ubuntu dans le cloud, AWS permet aux développeurs de commencer à mettre en œuvre des systèmes nécessitant un comportement déterministe, comme des workloads automobiles et industriels, avant la disponibilité du matériel et parallèlement à l’approvisionnement en matériel », a déclaré Stefano Marzani, Worldwide Technical Lead, Software-Defined Vehicles chez AWS.
Fourier s’efforce d’expédier 100 robots GR-1 à ses premiers clients d’ici la fin de l’année.
Alors que le robot Optimus de Tesla montre de nouvelles capacités en matière de triage et de yoga sur une jambe, la société singapourienne Fourier Intelligence a publié une nouvelle vidéo montrant le processus de production de son humanoïde GR-1 ultra-résistant.
Fourier affirme que le GR-1 peut supporter un poids extraordinaire de 50 kg, grâce à une paire de fesses robotisées particulièrement musclées, sous la forme de deux actionneurs de hanche de 300 Nm.
Ses bras et ses mains, en revanche, semblent plutôt grêles, et l’entreprise a fait part de son intention de faire de ce robot un assistant thérapeutique de rééducation, avec des poignées à la taille pour aider les gens à se lever de leur fauteuil roulant ou de leur lit. Il y a donc de fortes chances que ce soit là que ces charges seront portées.
La société a publié aujourd’hui une vidéo de ses installations de production, montrant non seulement l’assemblage des robots, mais aussi l’enroulement des bobines dans les actionneurs fabriqués sur mesure, des bancs d’imprimantes 3D pour les pièces de carrosserie, des mains désincarnées copiant apparemment des mouvements humains sur le banc d’essai, et ce qui semble être un contrôleur de main pour le robot. A voir :
Le GR-1 de Fourier Intelligence entre dans l’histoire en tant que premier robot humanoïde produit en série au monde.
Il pourrait bien s’agir d’une réponse subtile à l’affirmation d’Agility, la semaine dernière, selon laquelle sa future installation RoboFab à Salem, dans l’Oregon aux Etats-Unis, sera la « première usine de robots humanoïdes au monde », une affirmation douteuse à l’époque, puisque Fourier avait déjà fait part de son intention d’expédier 100 humanoïdes GR-1 à ses clients d’ici la fin de l’année.
Tesla, pour sa part, ne parle pas encore de production – bien que l’entreprise ait certainement fait de grands progrès dans le domaine de la construction automobile.
Alors que Fourier envoie le GR-1 à une série de partenaires de R&D, essentiellement dans l’espoir d’obtenir un éventail de perspectives sur la façon de former et d’améliorer le robot, Tesla travaille en interne sur les opérations autonomes et le renforcement des capacités du robot Optimus.
Optimus montre ses talents d’équilibriste unijambiste
Alimenté par les mêmes ordinateurs de haute technologie basés sur la vision que Tesla utilise dans son système Autopilot « Full Self Driving », Optimus est désormais capable de localiser précisément ses propres bras et jambes, calibrant leurs positions dans l’espace simplement en les regardant. Tesla affirme que ce système d’auto-calibrage aide le robot à apprendre de nouvelles tâches plus efficacement.
L’une de ces tâches consiste à ramasser un tas de blocs et à les classer par couleur dans différents bacs. Le robot semble s’acquitter de cette tâche avec aplomb, réorientant ses activités en douceur lorsque des humains interviennent et déplacent les blocs, et se montrant capable de corriger les erreurs lorsque les blocs ne sont pas posés dans le bon sens.
Il se déplace assez lentement pour l’instant ; la plupart des vidéos fonctionnelles sont présentées à une vitesse de 150 %. Mais les mouvements semblent délibérés, précis et fluides, et les mains d’Optimus semblent bien fonctionner. L’équilibre n’est manifestement pas un problème : la vidéo se termine par quelques poses de yoga sur une jambe, que beaucoup d’humains auraient du mal à reproduire. Jetez un coup d’œil :
Mise à jour du robot Tesla – Tri et étirement
Optimus et le GR-1 marchent encore un peu comme s’ils avaient chargé leur pantalon, comme dirait l’équipe de South Park. En effet, même après une décennie de recherche, de parkour, de danse et de gymnastique, le robot Atlas de Boston Dynamics se déplace encore un peu comme si sa couche avait besoin d’être vérifiée. Il sera intéressant de voir à quelle vitesse ces choses s’arrangeront dans les années à venir, étant donné l’avalanche de capitaux qui arrive dans le secteur.
Les entreprises qui mettront sur le marché des humanoïdes polyvalents, fonctionnant de manière sûre et fiable dans des fonctions utiles et apprenant de nouvelles tâches rapidement et efficacement, se placeront dans une position sans précédent. À mesure que ces robots se développent, ils promettent de devenir la main-d’œuvre de demain, moins chère et moins compliquée que les humains, et capable d’effectuer plusieurs tâches 24 heures sur 24, en ne s’arrêtant que pour recharger ses batteries.
LG et l’Institut Fraunhofer Heinrich-Hertz ont établi un nouveau record de distance pour la transmission de données 6G.
La technologie ne reste jamais inactive. Ainsi, alors que les communications 5G semblent assez nouvelles et tape-à-l’œil, l’industrie se prépare déjà à la prochaine génération. LG Electronics et l’Institut Fraunhofer Heinrich-Hertz viennent de réaliser un test qui a permis d’établir un nouveau record de distance pour la transmission de données à l’aide de la technologie 6G.
Comme on peut s’y attendre, la 6G devrait fonctionner comme la 5G et ses prédécesseurs, mais de manière beaucoup plus rapide et efficace. En effet, elle s’étend, pour la première fois, aux fréquences térahertz (THz), ce qui devrait lui permettre de fournir des débits de données jusqu’à 50 fois plus rapides que la 5G avec seulement 10 % de latence.
Des entreprises comme Samsung et LG testent et perfectionnent cette technologie depuis quelques années, établissant sans cesse de nouveaux records de distance pour la transmission de données 6G. Aujourd’hui, lors de nouveaux essais, LG et Fraunhofer ont réussi à étendre cette distance à 500 m, pulvérisant ainsi le record de 320 m établi l’année dernière.
Cette étape est importante, explique l’équipe, car 500 m est la distance standard pour les stations de base de grande puissance installées dans les zones urbaines. Les nouveaux essais ont également permis de vérifier que la 6G peut communiquer entre des terminaux de bâtiment à bâtiment, de bâtiment à sol et de sol à sol. En somme, la technologie se rapproche de plus en plus de la réalité.
Le principal inconvénient de la 6G est qu’elle a généralement une faible portée. Pour ce nouveau test, LG et Fraunhofer ont mis au point un nouvel amplificateur de puissance multicanal et un amplificateur de réception à faible bruit, qui ont permis d’augmenter la puissance de plus de 50 % pour atteindre le nouveau record de distance.
Votre téléphone 5G n’est pas encore obsolète : la commercialisation de la 6G n’est pas prévue avant 2029. D’ici là, il reste encore de nombreux problèmes technologiques à résoudre et des normes de réseau à définir.
À l’instar de Google Lens, ChatGPT peut également répondre à des questions relatives à vos images.
Le chatbot d’intelligence artificielle ChatGPT se dote de nouvelles capacités de reconnaissance vocale et d’image, ce qui permet de lui poser des questions à voix haute et de lui faire analyser des photos, a indiqué OpenAI dans un billet de blog lundi.
Vous pouvez désormais parler directement à travers l’application ChatGPT, en lui posant des questions et en lui demandant de répondre avec une voix d’IA. Par exemple, vous pouvez demander à ChatGPT de vous raconter une histoire à l’heure du coucher, et il générera automatiquement un récit et le lira à haute voix.
En ce qui concerne les photos, ChatGPT peut désormais reconnaître les éléments d’une image, ce qui vous permet de poser des questions à leur sujet. OpenAI indique que vous pouvez prendre une photo de votre garde-manger et que ChatGPT analysera ce qui est disponible et vous donnera les recettes correspondantes.
Dans un autre exemple, il est possible de prendre une photo de votre vélo et de demander à ChatGPT comment abaisser la selle. Le chatbot IA peut alors vous demander de prendre une photo de votre boîte à outils et d’un manuel disponible afin qu’il puisse vous recommander les bons outils et les bonnes instructions.
La reconnaissance vocale et l’analyse d’images seront déployées dans les deux prochaines semaines pour les utilisateurs de ChatGPT Plus et Enterprise.
Les capacités accrues de ChatGPT en matière de reconnaissance vocale et d’analyse d’images interviennent alors que l’utilisation de l’application a diminué depuis le début de l’année. Lorsque ChatGPT a été lancée l’année dernière, elle est rapidement devenue l’application à la croissance la plus rapide de l’histoire, avec environ 100 millions d’utilisateurs mensuels actifs.
En juillet, cependant, l’application a connu sa première baisse de trafic, signe que sa nouveauté s’est peut-être estompée ou que la concurrence accrue de Bard de Google et du chat AI de Bing a entamé ses chiffres.
Néanmoins, l’impact de ChatGPT sur le paysage technologique en général est indéniable. Depuis son lancement, un certain nombre d’entreprises ont intégré la technologie de l’IA générative dans leurs logiciels, de Duolingo aux applications de fitness.
L’IA générative est toutefois loin d’être parfaite. Il arrive que l’IA donne des informations trompeuses ou incorrectes, mais qu’elle les formule de manière à ce qu’elles paraissent convaincantes et sûres d’elles. C’est ce qu’on appelle une hallucination, qui fait partie d’un glossaire croissant de termes nécessaires à la compréhension de l’IA.
Il est également possible pour des acteurs malveillants d’escroquer des personnes en utilisant des voix générées par l’IA pour se faire passer pour des personnes réelles. C’est pour cette raison que l’OpenAI a limité ChatGPT à cinq voix.
Comment activer la reconnaissance vocale de ChatGPT
Allez dans Paramètres.
Tapez sur Nouvelles fonctionnalités.
Sélectionnez Conversations vocales.
Appuyez sur le bouton du casque situé dans le coin supérieur droit de l’écran d’accueil.