Skip to main content

Auteur/autrice : infohightech

Meta lance un générateur d’images autonome alimenté par l’IA

Pour ne pas être en reste avec le lancement de Google Gemini, Meta déploie une nouvelle expérience d’IA générative autonome sur le Web, Imagine with Meta, qui permet aux utilisateurs de créer des images en les décrivant en langage naturel.

Semblable à DALL-E , Midjourney et Stable Diffusion d’OpenAI , Imagine with Meta, qui est alimenté par le modèle de génération d’images Emu existant de Meta, crée des images haute résolution à partir d’invites de texte. Son utilisation est gratuite (du moins pour le moment) pour les utilisateurs aux États-Unis et génère quatre images par invite.

« Nous avons apprécié d’entendre les gens expliquer comment ils utilisent imagine, la fonctionnalité de génération de texte en image de Meta AI, pour créer du contenu amusant et créatif dans les discussions. Aujourd’hui, nous élargissons l’accès à l’imagination en dehors des chats », écrit Meta dans un article de blog publié ce matin. « Bien que notre expérience de messagerie soit conçue pour des interactions plus ludiques, vous pouvez désormais également créer des images gratuites sur le Web. »

Crédits image : Imaginez avec Meta

Maintenant, les outils de génération d’images de Meta ont récemment mis l’entreprise en difficulté (voir : le générateur d’autocollants IA à caractère raciste de Meta), ce qui amène cet auteur à se demander s’il existe des garanties dans Imagine with Meta pour empêcher l’histoire de se répéter. Nous n’avons pas eu l’occasion de tester l’outil avant son lancement, mais soyez assurés que nous le surveillerons de près à mesure qu’Imagine with Meta touchera davantage d’utilisateurs.

Ils ne seront pas disponibles au début, mais Meta s’est engagé à commencer à ajouter des filigranes au contenu généré par Imagine with Meta dans les semaines à venir pour « une transparence et une traçabilité accrues ». (Il y a déjà un filigrane visible.) Les filigranes, qui sont invisibles, seront générés avec un modèle d’IA et détectables avec un modèle correspondant, explique Meta. On ne sait pas si le modèle de détection sera rendu public à un moment donné.

Crédits image : Meta

« [Les filigranes sont] résistants aux manipulations d’image courantes telles que le recadrage, le redimensionnement, le changement de couleur (luminosité, contraste, etc.), les captures d’écran, la compression d’image, le bruit, les superpositions d’autocollants et plus encore », a déclaré Meta dans le message. « Nous visons à l’avenir à apporter un filigrane invisible à bon nombre de nos produits avec des images générées par l’IA. »

Les techniques de filigrane pour l’art génératif ne sont pas nouvelles. La startup française Imatag propose un outil de filigrane qui, selon elle, n’est pas affecté par le redimensionnement, le recadrage, l’édition ou la compression des images. Une autre société, Steg.AI, utilise un modèle d’IA pour appliquer des filigranes qui survivent au redimensionnement et à d’autres modifications. Microsoft et Google ont adopté des normes et des technologies de filigrane basées sur l’IA, tandis qu’ailleurs, Shutterstock et Midjourney ont convenu de lignes directrices pour intégrer des marqueurs indiquant que leur contenu a été créé par un outil d’IA générative.

Mais la pression s’accentue sur les entreprises technologiques pour qu’elles précisent plus clairement que les œuvres ont été générées par l’IA – en particulier à la lumière du flot de Deepfakes de la guerre de Gaza et du contournement des filtres des images d’abus d’enfants générées par l’IA .

Récemment, l’Administration chinoise du cyberespace a publié des réglementations exigeant que les fournisseurs d’IA générative marquent le contenu généré – y compris les générateurs de texte et d’images – sans affecter l’utilisation des utilisateurs. Et lors des récentes auditions d’une commission sénatoriale américaine, le sénateur Kyrsten Sinema (I-AZ)  a souligné  la nécessité de transparence dans l’IA générative, notamment en utilisant des filigranes.

https://techcrunch.com/2023/12/06/meta-launches-a-standalone-ai-powered-image-generator/

McDonald’s et Google Cloud annoncent un partenariat stratégique

McDonald’s va utiliser l’IA générative de Google, mais les hamburgers et les frites seront-ils plus frais et plus chauds ?

McDonald’s et Google ont annoncé la mise en place d’un nouveau partenariat mondial pluriannuel visant à connecter la technologie Google Cloud à des milliers de restaurants dans le monde.

McDonald’s prévoit ainsi de tirer parti d’un large éventail de technologies de Google Cloud en matière de matériel, de données et d’IA. L’objectif est de créer de meilleures expériences pour les clients, les équipes des restaurants et les employés.

Le géant de la restauration rapide McDonald’s s’apprête à s’engager dans un partenariat transformateur avec le titan de la technologie Google, marquant ainsi une avancée significative dans le domaine de l’intelligence artificielle (IA). Cette collaboration, qui devrait démarrer en 2024, vise à mettre en œuvre l’IA générative dans des « milliers » de points de vente McDonald’s à travers le monde, en intégrant des mises à jour matérielles et logicielles.

Cette démarche stratégique implique des révisions complètes, qui ne se limitent pas aux kiosques de commande et à l’application mobile de la marque. McDonald’s envisage de tirer parti des capacités d’IA générative pour optimiser l’efficacité opérationnelle en traitant de vastes quantités de données.

En promettant des plats plus chauds et plus frais à ses clients, l’entreprise laisse entrevoir la possibilité d’une précision à grande échelle dans l’exécution des commandes, en imaginant des portions de frites fumantes, potentiellement facilitées par des modèles de langage avancés.

« Connecter nos restaurants du monde entier à des millions de points de données dans notre écosystème numérique signifie que les outils deviennent plus pointus, les modèles plus intelligents, les restaurants plus faciles à gérer et, surtout, que l’expérience globale de nos clients et de notre personnel est encore meilleure », a déclaré Brian Rice, vice-président exécutif et directeur mondial de l’information de McDonald’s. « Grâce à ce partenariat de grande envergure, nous sommes en mesure d’améliorer la qualité de nos produits et de nos services et d’offrir à nos clients un service de qualité. »

« Grâce à ce partenariat de grande envergure, Google Cloud aidera McDonald’s à saisir de nouvelles opportunités pour transformer son activité et l’expérience de ses clients, en dotant les restaurants du monde entier des technologies les plus récentes pour un impact à court terme », a déclaré Thomas Kurian, directeur général de Google Cloud.

Toutefois, l’application précise de l’IA reste quelque peu énigmatique. Si McDonald’s reste discret sur les détails, l’initiative englobe des améliorations matérielles et logicielles sur place dans les magasins, ainsi que des services pris en charge par Google Cloud. Une partie de l’initiative consiste à donner aux directeurs de magasins les moyens d’identifier et de mettre en œuvre rapidement des solutions pour atténuer les perturbations opérationnelles.

Au milieu des spéculations sur le rôle de l’IA dans le remplacement des emplois humains, McDonald’s évite tout commentaire direct sur la question. L’accent est plutôt mis sur la rationalisation des opérations, affirmant que le système d’IA « réduira la complexité » pour les équipes des magasins.

En outre, l’entreprise fait allusion à la promesse d’expériences inédites pour les équipiers et les clients. Un récit similaire est apparu plus tôt chez Wendy’s aux États-Unis, qui utilise également Google Cloud AI pour les tests de commande, bien qu’il s’agisse encore d’un essai bêta dans un seul magasin à Columbus, dans l’Ohio, au mois de juin.

Toutefois, des inquiétudes subsistent quant au potentiel de l’automatisation à remplacer les rôles humains. La poussée de l’IA coïncide avec le déploiement d’un système d’exploitation sur mesure, visant à harmoniser l’application mobile de McDonald’s et les kiosques en magasin. McDonald’s prévoit que ces changements radicaux conduiront à des processus de test mieux informés et à des solutions automatisées, ce qui améliorera en fin de compte l’ensemble des activités des restaurants.

https://www.businesstoday.in/technology/news/story/mcdonalds-to-use-googles-generative-ai-to-make-your-burgers-fries-fresher-and-hotter-408486-2023-12-07

https://www.prnewswire.com/news-releases/mcdonalds-and-google-cloud-announce-strategic-partnership-to-connect-latest-cloud-technology-and-apply-generative-ai-solutions-across-its-restaurants-worldwide-302006915.html

Un adhésif inspiré de la moule crée un lien entre les implants et les os

Une imprimante 3D applique l’adhésif à base de dopamine à la tige tridimensionnelle en titane d’une articulation de la hanche.

Si vous avez déjà essayé d’arracher une moule à un rocher, vous savez qu’elle tient très bien en place. Le secret de leur réussite est un adhésif naturel, qui vient d’être reproduit dans une colle qui pourrait aider à maintenir les implants orthopédiques attachés au tissu osseux.

L’un des problèmes posés par les implants tels que les hanches artificielles est qu’avec le temps, l’implant en titane se détache de l’os auquel il a été collé. Une seconde intervention chirurgicale est alors nécessaire pour rattacher ou remplacer l’implant.

Au fil des ans, plusieurs groupes ont cherché à éviter ce problème. La colle inspirée des moules est l’un des exemples les plus récents et les plus fascinants.

Développée par des scientifiques du groupe de recherche allemand Fraunhofer, cette substance biocompatible peut être imprimée en 3D directement sur les surfaces courbes des implants en titane, garantissant ainsi un revêtement uniforme à l’interface implant/os.

Elle est composée principalement de polymères synthétiques contenant de la dopamine. Cette dernière molécule est un analogue chimique (c’est-à-dire qu’elle a une structure similaire) de la dihydroxyphénylalanine, qui est l’acide aminé clé que les moules produisent dans le cadre de leur adhésif naturel.

La colle contient également des additifs tels que des particules minérales, des protéines et des molécules de signalisation, qui permettent à l’organisme du patient de la reconnaître comme une substance semblable à l’os. Par conséquent, les cellules du tissu osseux adjacent se développent facilement dans la colle, assurant ainsi une liaison ferme et durable.

En outre, la dopamine a un effet antibactérien, ce qui réduit les risques d’infection sur le site de l’implant.

Enfin, la colle peut également être modifiée pour ne durcir que lorsqu’elle est exposée à la lumière ultraviolette. Cela signifie que les chirurgiens pourraient prendre leur temps pour aligner un implant, puis utiliser une lumière UV pour le verrouiller en place une fois qu’il est parfaitement positionné. À l’avenir, il pourrait également être possible d’activer et de désactiver l’effet de la colle, de sorte que les implants puissent être repositionnés si nécessaire.

https://www.fraunhofer.de/en/press/research-news/2023/december-2023/inspired-by-mussels-printable-adhesives-for-tissue-and-bones.html

Des scientifiques utilisent des drones pour prévenir à peu de frais la formation de glace sur les éoliennes

Un drone effectue un test de pulvérisation sur une section de pale d’éolienne.

À l’instar des ailes d’avion, les pales des éoliennes doivent être exemptes de glace pour fonctionner correctement. Les scientifiques ont mis au point une méthode peu coûteuse qui consiste à utiliser des drones pour appliquer un revêtement antigivre respectueux de l’environnement sur ces pales.

Si trop de glace s’accumule sur les pales des éoliennes, celles-ci tourneront plus lentement et produiront moins d’énergie. De plus, si les trois pales ne sont pas recouvertes d’une quantité égale de glace, l’équilibre de l’éolienne peut être perturbé, ce qui entraîne une usure accrue, voire une défaillance catastrophique.

Il existe des systèmes de chauffage antigivre qui peuvent être intégrés aux pales, mais ils ne sont pas à la portée de nombreux exploitants de parcs éoliens. Il en va de même pour l’utilisation d’hélicoptères pour l’épandage de produits chimiques antigivre.

À la recherche d’une alternative plus économique mais toujours efficace, des scientifiques de deux branches du groupe de recherche allemand Fraunhofer se sont récemment tournés vers les drones. Le projet de recherche est connu sous le nom de « TURBO – Temporary coating by means of drones » (revêtement temporaire au moyen de drones).

Dans la version actuelle du système obtenu, un drone hexacoptère est équipé d’une petite pompe qui envoie un liquide antigivre à base d’urée et de cire depuis un réservoir embarqué vers une lance longue et fine. Le fluide est pulvérisé à haute pression par la buse de la lance – qui ne fait que 0,3 mm de large – produisant de minuscules gouttelettes d’un diamètre de 100 micromètres.

Simulation informatique du processus de revêtement dans des conditions venteuses

Grâce à cette configuration, le drone a été utilisé avec succès pour appliquer des revêtements de gouttelettes atomisées sur les bords des pales d’éoliennes susceptibles d’être recouverts de glace, même à des vitesses de vent allant jusqu’à 35 km/h. Une fois solidifiés, ces revêtements empêchent la formation de glace pendant plusieurs semaines avant de perdre leur adhérence – un nouveau revêtement est alors appliqué.

Les scientifiques recherchent maintenant des partenaires industriels pour les aider à commercialiser la technologie TURBO. Cette technologie pourrait également être utilisée pour l’entretien des lignes électriques, des niveaux supérieurs des grands bâtiments ou d’autres éléments difficiles à atteindre par des moyens conventionnels.

https://www.fraunhofer.de/en/press/research-news/2023/december-2023/drones-protect-wind-turbines-from-ice.html

Un système conçu par un étudiant pourrait permettre aux aveugles de jouer au ping-pong

Le dispositif expérimental ajoute des caméras neuromorphiques et un réseau de haut-parleurs à une table conventionnelle.

Le tennis de table est l’un de ces sports que la plupart des gens considèrent comme impossible à pratiquer pour les aveugles. Pourtant, un étudiant australien utilise désormais des caméras et des haut-parleurs pour permettre aux non-voyants de jouer au ping-pong.

Tout d’abord, il existe déjà deux jeux pour les aveugles (Swish et Showdown) qui sont similaires au tennis de table, mais qui consistent à frapper une balle dans un mouvement de va-et-vient sur la surface d’une table. En ce sens, ils s’apparentent davantage à du hockey sur gazon.

Jouer au tennis de table normal avec une balle spéciale qui émet des bips (ou d’autres sons) est une autre possibilité, bien que ces balles remplies d’électronique n’aient pas les mêmes performances que leurs homologues conventionnelles beaucoup plus légères.

C’est en gardant ces limites à l’esprit que Phoebe Peng, étudiante en ingénierie à l’université de Sydney, a créé son nouveau système expérimental, en collaboration avec ARIA Research, une entreprise dérivée de l’université de Sydney.

L’installation comprend une table traditionnelle, des raquettes et une balle, ainsi qu’un ensemble de haut-parleurs sur les côtés de la table et deux caméras neuromorphiques. Également appelées caméras événementielles, ces dernières suivent le mouvement des objets dans leur champ de vision par le biais de changements locaux de luminosité, qui sont détectés par des pixels individuels sur le capteur d’image.

En combinant les résultats des deux caméras, il est possible de suivre la position de la balle dans un espace tridimensionnel, en temps réel. Un algorithme spécial utilise ces données pour contrôler les haut-parleurs et leur faire produire un champ sonore correspondant à la position actuelle du ballon.

L’idée est que les deux joueurs écoutent simplement la position de la balle, telle qu’elle est émise par les haut-parleurs. Cela dit, des recherches supplémentaires doivent être menées avant que le système ne soit disponible pour une utilisation réelle.

« Un défi technique permanent est la question de la perception humaine du son », a déclaré Phoebe Peng. « Il y a des limites à la précision avec laquelle les gens peuvent percevoir la localisation du son. Quel type de son faut-il utiliser ? Le son doit-il être continu ? C’est un défi technique auquel nous nous attaquerons au cours de la prochaine phase de développement ».

Mme Peng a présenté ses travaux de recherche ce mercredi (6 décembre) lors de la conférence Acoustics 2023 à Sydney.

https://acousticalsociety.org/

https://www.eurekalert.org/news-releases/1009557

Une percée dans le domaine du stockage de données sur du diamant permet d’écrire et de réécrire jusqu’à un seul atome

Des scientifiques ont mis au point une nouvelle technique permettant d’écrire des données sur le diamant de manière plus dense en utilisant différentes longueurs d’onde de la lumière laser.

Le diamant est un matériau prometteur pour le stockage de données, et les scientifiques ont maintenant démontré une nouvelle façon d’y inscrire encore plus de données, jusqu’à un seul atome. La technique permet de contourner une limite physique en écrivant des données aux mêmes endroits avec une lumière de couleur différente.

Le diamant a un grand potentiel en tant que support de stockage de données – des développements récents ont permis de produire des plaquettes de 5 cm pouvant stocker l’équivalent d’un milliard de disques Blu-Ray. Curieusement, il ne s’agit pas d’écrire des données sur le diamant lui-même, mais sur de minuscules défauts d’azote dans le matériau. Ces défauts peuvent absorber la lumière, ce qui leur vaut le nom de « centres de couleur ».

Habituellement, les technologies de mémoire optique ont une limite stricte quant à la finesse d’écriture des données – après tout, il existe un diamètre minimum auquel un faisceau laser peut être focalisé. Connu sous le nom de limite de diffraction, ce diamètre varie en fonction de la longueur d’onde de la lumière utilisée.

« Il est impossible d’utiliser un faisceau comme celui-ci pour écrire avec une résolution inférieure à la limite de diffraction, car si vous déplacez le faisceau en deçà de cette limite, vous impacterez ce que vous avez déjà écrit », explique Tom Delord, coauteur de l’étude. Normalement, les mémoires optiques augmentent la capacité de stockage en raccourcissant la longueur d’onde (en passant au bleu), ce qui explique la technologie « Blu-ray ».

Mais pour cette nouvelle étude, des chercheurs de la City University of New York (CUNY) ont trouvé un moyen de contourner la limite de diffraction. L’astuce consiste à utiliser différentes longueurs d’onde de la lumière pour écrire des données dans des centres de couleur qui sont plus proches l’un de l’autre que ne le permet la limite de diffraction. Vous ne pourriez peut-être pas mettre deux « verts » côte à côte, par exemple, mais si vous alternez entre, disons, le vert, le rouge et le bleu, vous pourriez théoriquement stocker trois fois plus de données dans une région que si vous n’utilisiez qu’une seule couleur.

« Ce que nous avons fait, c’est contrôler très précisément la charge électrique de ces centres de couleur à l’aide d’un laser à bande étroite et dans des conditions cryogéniques », souligne Tom Delord. « Cette nouvelle approche nous a permis d’écrire et de lire de minuscules bits de données à un niveau beaucoup plus fin que ce qui était possible auparavant, jusqu’à un seul atome.

Lors de tests, l’équipe a démontré que la technique pouvait imprimer 12 images différentes au même endroit à des fréquences différentes, atteignant une densité de données de 25 Go dans 6,4 cm². À titre de comparaison, c’est la quantité de données qu’un disque Blu-Ray standard à couche unique peut contenir sur toute sa surface. En outre, cette technique est réversible, ce qui signifie que les données peuvent être écrites, effacées et réécrites autant de fois que nécessaire.

En poursuivant ses travaux, l’équipe affirme que cette technique pourrait être appliquée à d’autres matériaux et, espérons-le, à température ambiante plutôt que dans des conditions cryogéniques.

https://www.nature.com/articles/s41565-023-01542-9

https://www.ccny.cuny.edu/news/ccny-researchers-publish-optical-data-storage-breakthrough-nature-nanotechnology

De l’oxyde de graphène utilisé pour renforcer et électrifier le béton imprimé en 3D

L’une des structures d’essai imprimées en 3D et composées de béton amélioré

Les structures en béton imprimées en 3D sont censées être plus rapides et moins coûteuses à construire que leurs équivalents traditionnels, mais elles ne sont pas toujours aussi solides. Ce problème pourrait bientôt être résolu en ajoutant une pincée d’oxyde de graphène, qui pourrait également être utilisé pour détecter les fissures.

Habituellement, les bâtiments, ponts et autres structures en béton sont construits en versant du béton humide dans des moules en bois (appelés « coffrages ») qui sont retirés une fois que le béton a durci.

En revanche, l’impression 3D de ces structures consiste à déposer des couches successives de béton extrudé qui s’assemblent au fur et à mesure qu’elles durcissent. Malheureusement, les liaisons entre ces couches finissent parfois par constituer des points faibles, ce qui diminue la résistance globale de la structure.

Pour tenter de résoudre ce problème, des scientifiques de l’université australienne RMIT et de l’université de Melbourne ont essayé d’ajouter de l’oxyde de graphène au ciment utilisé comme liant dans le béton imprimé en 3D. L’oxyde de graphène est la forme oxydée du graphène, qui est à son tour une feuille d’un atome d’épaisseur composée d’atomes de carbone reliés entre eux selon un motif en nid d’abeille.

Après avoir expérimenté différentes quantités, on a constaté que lorsque l’oxyde de graphène était ajouté à un dosage de 0,015 % du poids du ciment, le béton obtenu présentait une meilleure liaison entre les couches. Cette amélioration a permis d’augmenter la résistance globale de 10 %.

« L’oxyde de graphène possède des groupes fonctionnels à sa surface, qui sont comme des points collants à la surface d’un matériau qui peut s’accrocher à d’autres choses », a déclaré le professeur associé Jonathan Tran du RMIT. Ces « points collants » sont principalement constitués de divers groupes fonctionnels contenant de l’oxygène, qui jouent un rôle crucial en facilitant les liaisons plus fortes avec d’autres matériaux comme le ciment. Cette liaison forte peut améliorer la résistance globale du béton. »

Des doses plus élevées d’oxyde de graphène ont en fait diminué la résistance et la maniabilité du béton.

En outre, le graphène étant hautement conducteur d’électricité, il est possible de faire passer un courant électrique à travers le béton durci. On espère que cette fonctionnalité pourra un jour être utilisée dans un système de détection des fissures, dans lequel même les plus petites fissures interrompraient un circuit électrique traversant une structure en béton.

D’autres recherches doivent encore être menées dans ce domaine, et les scientifiques doivent encore déterminer comment la résistance du béton imprimé en 3D est comparée à celle du béton coulé traditionnel. Un article sur cette étude, dirigée par Junli Liu, doctorant au RMIT, a récemment été publié dans la revue Additive Manufacturing Letters.

Dans des études antérieures, l’oxyde de graphène a été utilisé pour former un revêtement protecteur sur le béton et pour augmenter la force d’adhérence des fibres de masques de protection déchiquetées qui ont été utilisées pour renforcer le béton.

https://www.sciencedirect.com/science/article/pii/S2772369023000385#sec0004

https://www.rmit.edu.au/news/all-news/2023/dec/graphene-oxide-concrete

Google présente l’IA « Gemini » et déclare qu’elle bat GPT-4

Google a beaucoup à prouver.

Google a officiellement présenté son très attendu modèle d’IA, Gemini, qui, selon lui, est plus puissant que le grand modèle de langage (LLM) GPT-4 d’OpenAI, affirmant qu’il peut rivaliser avec les humains de « niveau expert » dans un test d’intelligence.

Le modèle, que le PDG Sundar Pichai a dévoilé pour la première fois lors de la conférence I/O de la société en mai, sera disponible en trois versions : Nano, Pro et Ultra, Ultra étant la plus performante et celle qui peut prétendument devancer GPT-4.

Une « version affinée de Gemini Pro » a déjà été intégrée au chatbot Bard de Google, selon un article de blog officiel . Ultra fait encore l’objet de « contrôles approfondis de confiance et de sécurité » et de « réglages précis », mais sera finalement intégré à Bard également « au début de l’année prochaine ».

Mais au-delà de quelques simples démonstrations vidéo partagées par la société aujourd’hui, c’est plus ou moins tout ce que nous savons sur la dernière IA de Google. Nous ne savons pas, par exemple, combien de paramètres elle possède ni sur quelles données elle a été formée, ce qui rend impossible une comparaison précise de pommes avec des pommes avec des modèles d’IA concurrents.

Sans parler de l’absence flagrante d’une référence standard communément acceptée par l’industrie pour mesurer l’intelligence de tout modèle d’IA.

Fondamentalement, nous avons entendu des bruits marketing – et maintenant l’entreprise a beaucoup à prouver.

Gemini est « nativement multimodal », ce qui signifie qu’il peut « combiner différents types d’informations, notamment du texte, du code, de l’audio, des images et des vidéos », selon le blog.

Dans une série de vidéos , Google a montré les capacités de Gemini. Une vidéo montre un programme identifiant correctement le dessin d’un canard bleu. Une vidéo distincte montre l’IA lisant les réponses d’un élève à des questions de mathématiques et expliquant pourquoi l’élève avait raison ou tort.

Mais comment se compare-t-il réellement au GPT-4 concurrent d’OpenAI ?

Dans son annonce d’aujourd’hui, l’entreprise affirme que son modèle Gemini Ultra a obtenu un score de 90 % au test MMLU (massive multitask language understanding ou compréhension massive du langage multitâche), qui « utilise une combinaison de 57 sujets tels que les mathématiques, la physique, l’histoire, le droit, la médecine et l’éthique pour tester à la fois la connaissance du monde et les capacités de résolution de problèmes ».

Cela en fait « le premier modèle à surpasser les experts humains » au test. Les humains de « niveau expert » n’obtiennent qu’un score de 89,8 pour cent.

GPT-4 n’a obtenu que 86,4 % au test, selon Google. Cependant, le modèle Gemini Pro de milieu de gamme, intégré au chatbot Bard de Google, n’a notamment pu battre GPT-3.5 que  dans le même test.

En d’autres termes, la course reste extrêmement serrée, d’après les données publiées par Google aujourd’hui.

Lors d’un point de presse, Eli Collins, vice-président des produits chez Google DeepMind, a déclaré « Je soupçonne que oui », lorsqu’on lui a demandé si Gemini avait de nouvelles capacités par rapport aux LLM de la génération actuelle – une réponse, au mieux, vague.

Collins a également déclaré que Gemini avait procédé aux « évaluations de sécurité les plus complètes » de tous les modèles d’IA que la société avait construits à ce jour, ce qui pourrait expliquer pourquoi Google aurait dû reporter son lancement.

La société a également déclaré qu’elle ne publierait pas le nombre de paramètres, ce qui pourrait également rendre les comparaisons difficiles.

Au-delà de Gemini, Google a également présenté son expérience générative de recherche « expérimentale » plus tôt cette année, destinée à améliorer les résultats des moteurs de recherche de l’entreprise. Mais compte tenu de ce que nous avons vu jusqu’à présent, l’outil laisse beaucoup à désirer .

En bref, le jury ne sait toujours pas où se situe Gemini par rapport à sa féroce concurrence.

Et il est peu probable que cela change de si tôt. À partir d’aujourd’hui, les utilisateurs de Bard ne pourront utiliser que des invites textuelles, les interactions image et audio ne étant publiées que « dans les mois à venir », comme l’a déclaré Collins aux journalistes.

Même Gemini Ultra, qui, selon Google, peut surpasser GPT-4, n’est toujours pas prêt à être diffusé aux heures de grande écoute, ce qui signifie que nous devrons attendre de pouvoir tirer des conclusions définitives.

https://futurism.com/google-gemini-gpt-4

Les « oscillateurs de déferlement » utilisent l’énergie des vagues pour augmenter le rayon d’action des navires

L’exploitation de l’énergie des mouvements de l’océan pourrait accroître le rayon d’action des grands navires.

Selon des chercheurs chinois, les navires peuvent devenir des convertisseurs mobiles d’énergie houlomotrice, en utilisant des « oscillateurs de déferlement » (Heaving Oscillators) qui tirent leur énergie des mouvements de déferlement, de roulis et de tangage lorsqu’ils se déplacent en mer, tout en agissant également comme des amortisseurs de mouvement pour améliorer la sécurité.

Il existe de nombreux générateurs d’énergie houlomotrice flottante en cours de développement, selon cette idée, mais peu à bord des navires, qui passent la plupart de leurs journées de travail dans les vagues. Et où mieux produire de l’énergie qu’à bord d’un navire, où le stockage de l’énergie s’annonce comme l’un des obstacles les plus difficiles à surmonter dans la course à la décarbonisation ?

Des chercheurs du Shanghai Ship and Shipping Institute ont proposé un système d’absorption ponctuelle à deux corps qui serait placé sous le pont d’un cargo, afin de préserver l’espace de chargement, mais qui serait également isolé de l’eau de mer par la coque.

Le dispositif se composerait d’un cadre, solidement fixé au navire en haut et en bas, avec un corps d’oscillateur capable de monter et descendre le long des rails du cadre, un ressort pour suspendre l’oscillateur et un cylindre hydraulique fixé au plancher et à la base de l’oscillateur.

Le générateur se trouve sous le pont

Le cylindre pompe l’huile par l’intermédiaire d’un dispositif de prise de force hydraulique afin de générer de l’énergie lorsque l’oscillateur glisse de haut en bas par rapport au navire et au cadre fixe. L’oscillateur, quant à lui, est rempli d’eau, mais il existe un système permettant d’ajouter et de retirer de l’eau pour modifier son poids. Ce système pourrait s’avérer particulièrement utile en cas de conditions météorologiques extrêmes, lorsque l’oscillateur pourrait être allégé afin de réduire les contraintes sur la structure du navire.

Selon les chercheurs, cette conception permet d’obtenir un oscillateur « capable de se déplacer le long des tiges de glissement lorsque le navire subit un mouvement de pilonnement, de roulis ou de tangage » – générant ainsi de l’énergie à partir de trois axes de mouvement différents, contrairement aux conceptions précédentes qui n’en géraient qu’un ou deux.

L’équipe a construit un modèle du système pour les tests de simulation et a effectué une série de tests pour déterminer comment le système fonctionnerait à différentes vitesses, sous différents angles de vague, etc. L’étude a permis de déterminer que la capture d’énergie serait la plus efficace dans les mers de travers, où les vagues déferlent à 90 degrés, frappant directement le flanc du navire. Dans ces conditions, le système pourrait atteindre « jusqu’à 90,71 % de la puissance maximale théorique absorbée par un absorbeur ponctuel axisymétrique sous une certaine période de vague ».

L’équipe a calculé les forces exercées par le générateur sur la structure du navire

L’équipe a déclaré à Recharge News qu’elle prévoyait de prototyper son système pour le tester dans un bassin à houle dans une prochaine étape, et que le même système pourrait « facilement être étendu » pour fonctionner avec d’autres structures offshore.

L’étude ne s’est pas penchée sur la quantité d’énergie que le système pourrait fournir lors d’un voyage moyen, ce qui, avec les considérations d’espace, sera déterminant pour le déploiement à grande échelle de systèmes de ce type.

https://www.sciencedirect.com/science/article/abs/pii/S0960148123014416

https://www.rechargenews.com/energy-transition/motion-of-the-ocean-tapping-wave-energy-could-turn-ships-greener-claim-researchers/2-1-1553353

La batterie à chimie divisée augmente l’autonomie de la BMW iX à 978 km.

ONE divise le châssis du skateboard en deux moitiés de batterie différentes.

L’année dernière, BMW et la start-up du Michigan Our Next Energy (ONE) ont annoncé un partenariat pour tester le système de batterie Gemini de cette dernière dans le but d’augmenter l’autonomie tout électrique de la BMW iX à 966 km. Les premiers résultats sont là, et le projet s’est avéré très concluant. La BMW iX a pu parcourir un peu plus de 966 km avant d’avoir besoin d’être rechargée, grâce à la séparation des cellules à double chimie du système Gemini.

Avant l’annonce de sa collaboration avec BMW en 2022, ONE avait utilisé avec succès sa batterie Gemini pour offrir une autonomie de 1 210 km à une Tesla Model S. Avec l’iX, ONE a voulu tester l’efficacité de la batterie dans une application SUV de plus grande taille. Bien que l’iX soit présenté comme le SUV le plus aérodynamique de BMW, son coefficient de traînée de 0,25 est supérieur à celui de la Model S, qui est de 0,208.

ONE a réalisé des essais concluants avec l’iX pour une autonomie de 978 km, soit plus de 322 km de plus que le SUV de série

Bien qu’il n’ait jamais été question de parcourir 1210 km pour l’iX, ONE a visé plus de 965 km en utilisant une batterie qu’elle présente comme le pack à la plus grande autonomie pouvant tenir dans 300 à 400 litres d’espace automobile. Plus précisément, la batterie iX Genesis a une capacité de 185 kWh, occupe 411 litres de volume sous le plancher et pèse 710 kg. ONE a officiellement confirmé qu’elle était en mesure de conduire l’iX équipée de la Genesis sur une distance de 979 km par charge selon le cycle d’essai WLTP.

La iX de série, quant à elle, a une autonomie WLTP de 414 km lorsqu’elle est équipée de la batterie de base de 71 kWh, ou de 630 km lorsqu’elle est équipée de la batterie de 105 kWh.

Véhicule d’essai BMW Genesis

La batterie Gemini est en fait un modèle deux-en-un. Environ la moitié du châssis de style skateboard est consacrée aux cellules lithium-fer-phosphate (LFP) traditionnelles qui alimentent la propulsion électrique et fournissent suffisamment d’énergie pour des trajets quotidiens de 241 km ou moins. Pour les voyages plus longs, la seconde moitié du pack contient des cellules sans anode (AF) plus denses en énergie qui servent de prolongateur d’autonomie, s’associant au convertisseur DC-to-DC à haut rendement exclusif de ONE pour une autonomie supplémentaire de 724 km. Ces cellules AF font plus que doubler la densité énergétique des cellules LFP, qui est de 441 Wh/L, pour atteindre un peu plus de 1 000 Wh/L.

La batterie de ONE utilise un type de cellules pour les trajets quotidiens plus courts et une cellule à plus haute densité pour les trajets plus longs.

« Les véhicules électriques seront adoptés en masse lorsqu’ils offriront une autonomie suffisante pour que les gens se sentent à l’aise d’avoir un VE comme seul véhicule », a déclaré Mujeeb Ijaz, PDG et fondateur de ONE. « La batterie Gemini a prouvé qu’elle pouvait éliminer le plus grand obstacle à l’électrification.

Selon ONE, la structure à double chimie élimine pratiquement l’utilisation du cobalt, réduit l’utilisation du nickel de 75 %, du graphite de 60 % et du lithium de 20 %.

ONE travaille à la commercialisation de sa batterie Genesis à double chimie.

ONE prévoit de continuer à affiner la conception de Gemini en vue de sa commercialisation. Plus précisément, elle travaille à l’augmentation de l’efficacité du convertisseur DC-to-DC, au développement d’algorithmes de contrôle améliorés pour optimiser l’utilisation des cellules de prolongation de l’autonomie, et à la poursuite de la validation de la batterie et du développement des cellules. Elle a ensuite l’intention de préparer un échantillon A pour un programme de production complet.

https://one.ai/dual-chemistry-gemini-battery-powers-bmw-ix-608-miles-on-a-single-charge

The show must go on : Kiss vivra grâce à des avatars numériques « super-héros ».

Le nouveau Kiss numérique est la deuxième création de Pophouse Entertainment, cofondée par Björn Ulvaeus d’ABBA, et d’Industrial Light & Magic de George Lucas.

Même si vous ne connaissez pas les chansons, vous reconnaîtrez probablement le look. Après 50 ans de carrière, le groupe de rock Kiss vient de terminer sa tournée mondiale End of the Road au Madison Square Garden de New York en introduisant des avatars numériques de remplacement.

Cette tournée de Kiss, apparemment la dernière, la dernière (il y a eu d’autres tournées finales avant la tournée End of the Road), a démarré fin janvier 2019 et – à l’exception d’une interruption pendant la pandémie de COVID-19 – s’est poursuivie dans le monde entier depuis lors. La dernière ligne droite a débuté en octobre et s’est déroulée aux États-Unis et au Canada.

Après que les notes de la dernière chanson se soient éteintes, la prochaine phase futuriste du groupe a commencé lorsque quatre silhouettes sont apparues sur un mur vidéo avant un rappel virtuel de la chanson « God Gave Rock And Roll To You » interprétée par des avatars numériques.

Les avatars numériques de Kiss ne sont pas nécessairement des copies conformes des membres actuels du groupe, mais des « super-héros fantastiques »

Les « super-héros fantastiques » sont l’œuvre du studio d’effets visuels Industrial Light & Magic de George Lucas, qui a utilisé la technologie de capture de mouvement et l’apprentissage automatique pour reproduire les mouvements et l’essence des membres réels du groupe, Gene Simmons, Eric Singer, Tommy Thayer et Paul Stanley.

Le spectacle virtuel au Garden a été créé en partenariat avec Pophouse Entertainment, cofondé par Björn Ulvaeus d’ABBA, et marque la deuxième sortie de cette technologie après les spectacles londoniens d’ABBA Voyage, où les fans du supergroupe suédois assistent à des concerts donnés par des ABBAtars numériques.

ABBA Voyage s’est avéré très rentable, et des espoirs similaires existent pour l’avenir des spectacles de Kiss, « qui verront des avatars du groupe se produire devant les fans pendant les décennies à venir ».

Comme les autres membres du groupe, le bassiste de Kiss, Gene Simmons, voit ses mouvements corporels et ses expressions faciales numérisés grâce à la technologie de la capture de mouvements

« C’est excitant pour nous de passer à l’étape suivante et de voir Kiss immortalisé », a déclaré Paul Stanley, chanteur et cofondateur de Kiss. « Nous avons passé 50 ans à construire ce projet. En travaillant avec ILM et Pophouse, nous partageons tous la même vision, celle d’amener Kiss à un niveau complètement différent, au-delà du simple fait d’être un groupe de musique. Et nous nous sommes toujours considérés comme étant plus qu’un simple groupe de musique ».

« Nous pouvons être éternellement jeunes et éternellement emblématiques en nous rendant dans des endroits dont nous n’avons jamais rêvé auparavant », a ajouté Gene Simmons, bassiste et cofondateur de Kiss. « La technologie va permettre à Paul de sauter plus haut qu’il ne l’a jamais fait auparavant. »

https://pophouse.se/news/kiss-to-become-first-u-s-band-to-go-fully-virtual-and-stage-avatar-show/

Lorsque l’IA se débranche, tous les paris sont ouverts 

Fonctionnant de manière native sur les appareils Edge, les assistants IA personnalisés deviendront bientôt fous et étranges et le prochain grand chatbot fonctionnera à la vitesse de l’éclair sur votre ordinateur portable – aucune connexion Internet n’est requise.

C’est du moins la vision récemment exposée par le PDG d’Intel, Pat Gelsinger, lors du sommet Intel Innovation 2023 de l’entreprise. Flanqué de démonstrations sur scène, Pat Gelsinger a annoncé l’arrivée de « PC IA » conçus pour accélérer toute leur gamme croissante de tâches d’IA basées uniquement sur le matériel situé sous le bout des doigts de l’utilisateur.

Intel n’est pas seul. Tous les grands noms de la technologie grand public, d’Apple à Qualcomm, s’efforcent d’optimiser leur matériel et leurs logiciels afin d’exécuter l’intelligence artificielle à la « périphérie », c’est-à-dire sur du matériel local, et non sur des serveurs cloud distants. Le but? Une IA personnalisée et privée si transparente que vous pourriez oublier qu’il s’agit d’une « IA ».

La promesse était que l’IA révolutionnerait bientôt tous les aspects de nos vies, mais ce rêve s’est effiloché.

« 50 % des entreprises de pointe considèrent désormais l’IA comme une charge de travail », déclare Pallavi Mahajan , vice-président du groupe Network and Edge d’Intel. « Aujourd’hui, l’essentiel de cette technologie repose sur le traitement du langage naturel et la vision par ordinateur. Mais avec les grands modèles linguistiques (LLM) et l’IA générative, nous n’avons vu que la pointe de l’iceberg. »

Avec l’IA, le cloud est roi, mais pour combien de temps ?

2023 a été une année record pour l’IA dans le cloud. Le PDG de Microsoft, Satya Nadella, a levé un petit doigt à ses lèvres et a donné le ton en investissant 10 milliards de dollars dans OpenAI , créateur de ChatGPT et de DALL-E. Pendant ce temps, Google s’est empressé de proposer son propre chatbot, Bard, lancé en mars ; Amazon a annoncé un investissement de 4 milliards de dollars dans Anthropic , créateur du concurrent ChatGPT Claude, en septembre.

« Les très gros LLM sont trop lents pour être utilisés pour une interaction basée sur la parole. »
—OLIVER LEMON, UNIVERSITÉ HERIOT-WATT, ÉDIMBOURG

Ces mesures promettaient que l’IA révolutionnerait bientôt tous les aspects de nos vies, mais ce rêve s’est effiloché. Aujourd’hui, les modèles d’IA les plus performants s’appuient largement sur des centres de données dotés de matériel d’IA coûteux auquel les utilisateurs doivent accéder via une connexion Internet fiable. Même ainsi, les modèles d’IA accessibles à distance peuvent bien sûr être lents à réagir. Le contenu généré par l’IA, comme une conversation ChatGPT ou une image générée par DALL-E 2, peut parfois s’arrêter car les serveurs surchargés ont du mal à suivre.

Oliver Lemon , professeur d’informatique à l’université Heriot-Watt, à Édimbourg, et co-responsable du National Robotarium , également à Édimbourg, s’est personnellement penché sur le problème. Vétéran de 25 ans dans le domaine de l’IA conversationnelle et de la robotique, Lemon était impatient d’utiliser les plus grands modèles de langage pour des robots comme Spring , un assistant humanoïde conçu pour guider les visiteurs et les patients des hôpitaux. Spring semblait susceptible de bénéficier des capacités conversationnelles créatives et humaines des LLM modernes. Au lieu de cela, il a découvert les limites de la portée du cloud.

« [ChatGPT-3.5] était trop lent pour être déployé dans une situation réelle. Un LLM local, plus petit, était bien meilleur. Mon impression est que les très gros LLM sont trop lents pour être utilisés pour une interaction basée sur la parole », explique Oliver Lemon. Il est optimiste quant au fait qu’OpenAI pourrait trouver un moyen de contourner ce problème, mais pense que cela nécessiterait un modèle plus petit et plus agile que le GPT global.

Spring a plutôt opté pour Vicuna-13B , une version du Llama LLM de Meta peaufinée par des chercheurs de la Large Model Systems Organization . « 13-B » décrit les 13 milliards de paramètres du modèle, ce qui, dans le monde des LLM, est petit. Les plus grands modèles Llama englobent 70 milliards de paramètres, et le GPT-3.5 d’OpenAI contient 175 milliards de paramètres.

La réduction des paramètres d’un modèle rend la formation moins coûteuse, ce qui n’est pas un mince avantage pour des chercheurs comme Lemon. Mais il existe un deuxième avantage, tout aussi important : une « inférence » plus rapide, c’est-à-dire le temps nécessaire pour appliquer un modèle d’IA à de nouvelles données, comme une invite de texte ou une photographie. C’est un incontournable pour tout assistant IA, robotique ou autre, destiné à aider les gens en temps réel.

L’inférence locale agit comme un gardien de quelque chose qui est susceptible de devenir la clé pour tous les assistants IA personnalisés : la confidentialité.

« Si l’on y regarde de plus près, le marché de l’inférence est en réalité bien plus important que celui de la formation. Et l’endroit idéal pour l’inférence est l’endroit où se trouvent les données », explique Pallavi Mahajan d’Intel. « Parce qu’à bien y regarder, qu’est-ce qui motive l’IA ? L’IA est pilotée par toutes les applications que nous avons sur nos ordinateurs portables ou sur nos téléphones.« 

Les performances Edge sont synonymes de confidentialité

L’une de ces applications est Rewind, un assistant IA personnalisé qui aide les utilisateurs à se souvenir de tout ce qu’ils ont accompli sur leur Mac ou PC. Les e-mails supprimés, les fichiers cachés et les anciennes publications sur les réseaux sociaux peuvent être trouvés grâce à la recherche textuelle. Et ces données, une fois récupérées, peuvent être utilisées de diverses manières. Rewind peut transcrire une vidéo, récupérer des informations à partir d’un onglet de navigateur en panne ou créer des résumés d’e-mails et de présentations.

Pallavi Mahajan affirme que l’arrivée de Rewind sur Windows est un exemple de son écosystème de développement d’IA ouvert, OpenVINO , en action. Il permet aux développeurs de faire appel à des processeurs, des GPU et des unités de traitement neuronal (NPU) disponibles localement sans écrire de code spécifique à chacun, optimisant ainsi les performances d’inférence pour une large gamme de matériels. Core ML d’Apple fournit aux développeurs un ensemble d’outils similaire pour les iPhones, iPads et Mac.

« Avec les outils Web, les gens y jetaient des informations…. Il s’agit simplement d’aspirer tout et de le recracher aux autres.
—PHIL SOLIS, IDC

Et l’inférence locale rapide agit comme un gardien d’un deuxième objectif qui deviendra probablement essentiel pour tous les assistants IA personnalisés : la confidentialité.

Rewind offre une vaste gamme de fonctionnalités. Mais pour ce faire, il faut accéder à presque tout ce qui se passe sur votre ordinateur. Ce n’est pas unique à Rewind. Tous les assistants IA personnalisés exigent un large accès à votre vie, y compris à des informations que beaucoup considèrent comme sensibles (comme les mots de passe, les enregistrements vocaux et vidéo et les e-mails).

Rewind combat les problèmes de sécurité en gérant à la fois la formation et l’inférence sur votre ordinateur portable, une approche que d’autres assistants IA soucieux de la confidentialité sont susceptibles d’imiter. Ce faisant, il démontre comment de meilleures performances en périphérie améliorent directement à la fois la personnalisation et la confidentialité. Les développeurs peuvent commencer à fournir des fonctionnalités une fois que cela est possible uniquement avec la puissance d’un centre de données derrière eux et, à leur tour, offrir un rameau d’olivier à ceux qui s’inquiètent de la destination de leurs données.

Phil Solis, directeur de recherche chez IDC , pense qu’il s’agit d’une opportunité clé pour que l’IA sur appareil se répercute sur les appareils grand public en 2024. « La prise en charge de l’IA et de l’IA générative sur l’appareil est quelque chose qui représente un gros problème pour les smartphones et pour les PC. » dit Solis. « Avec les outils Web, les gens y jetaient des informations…. Il s’agit simplement d’aspirer tout et de le recracher aux autres. La confidentialité et la sécurité sont des raisons importantes de mettre en place une IA sur appareil. »

Des renseignements inattendus avec un budget restreint

Les grands modèles de langage constituent de superbes assistants, et leurs capacités peuvent atteindre le domaine plus nébuleux du raisonnement causal . Les modèles d’IA peuvent tirer des conclusions sur la base des informations fournies et, si on le leur demande, expliquer leurs réflexions étape par étape. La mesure dans laquelle l’IA comprend le résultat est sujette à débat , mais les résultats sont mis en pratique.

Les nouvelles puces Snapdragon de Qualcomm, qui arriveront bientôt dans les téléphones phares, peuvent gérer le puissant Llama 2 LLM de Meta entièrement sur votre smartphone, sans connexion Internet ni navigation Web requise.

La startup Artly utilise l’IA dans ses robots baristas, Jarvis et Amanda, qui servent du café dans plusieurs endroits en Amérique du Nord (ils produisent un cappuccino solide, même selon les normes scrupuleuses de la culture du café de Portland, en Oregon). Le cofondateur et PDG de l’entreprise, Meng Wang, souhaite utiliser les LLM pour rendre sa flotte de baristas plus intelligente et plus sympathique.

« Si le robot prenait une tasse et l’inclinait, nous devrions lui dire quel serait le résultat », explique Meng Wang. Mais un LLM peut être formé pour déduire cette conclusion et l’appliquer dans divers scénarios. Meng Wang affirme que le robot n’effectue pas toutes les inférences en périphérie (le barista a de toute façon besoin d’une connexion en ligne pour vérifier les paiements), mais il cache un GPU Nvidia qui gère les tâches de vision par ordinateur.

Cette approche hybride ne doit pas être ignorée : en fait, l’application Rewind fait quelque chose de similaire sur le plan conceptuel. Bien qu’il entraîne et exécute des inférences sur les données personnelles d’un utilisateur localement, il offre la possibilité d’utiliser ChatGPT pour des tâches spécifiques bénéficiant d’une sortie de haute qualité, comme la rédaction d’un e-mail.

Mais même les appareils obligés de s’appuyer sur du matériel local peuvent fournir des résultats impressionnants. Lemon affirme que l’équipe derrière SPRING a trouvé des moyens d’exécuter des renseignements surprenants, même dans les limites d’un petit modèle d’IA inféré localement comme Vicuna-13B. Son raisonnement ne peut pas être comparé à GPT, mais le modèle peut être entraîné pour utiliser des balises contextuelles qui déclenchent des mouvements physiques prédéfinis et des expressions qui montrent son intérêt.

L’empathie d’un robot peut sembler une niche par rapport aux aspirations du « PC IA », mais les défis de performances et de confidentialité auxquels le robot est confronté sont les mêmes que ceux auxquels est confrontée la prochaine génération d’assistants IA. Et ces assistants commencent à arriver, quoique sous des formes plus limitées et spécifiques à des tâches spécifiques. Rewind est disponible en téléchargement pour Mac aujourd’hui (et sera bientôt disponible pour Windows).

La nouvelle Apple Watch utilise un modèle d’IA basé sur un transformateur pour rendre Siri disponible hors ligne. Samsung prévoit d’intégrer des NPU dans ses nouveaux produits électroménagers à partir de l’année prochaine. Et les nouvelles puces Snapdragon de Qualcomm , qui arriveront bientôt dans les téléphones phares, peuvent gérer le puissant Llama 2 LLM de Meta entièrement sur votre smartphone, sans connexion Internet ni navigation Web requise.

«Je pense qu’il y a eu un changement de pendule», déclare Pallavi Mahajan d’Intel. « Nous étions dans un monde où, il y a probablement 20 ans, tout se déplaçait vers le cloud. Nous voyons maintenant le pendule revenir en arrière. Nous constatons que les applications reviennent vers la périphérie. »

https://spectrum.ieee.org/personal-ai-assistant

Les bras « roue-main-jambe » d’ANYmal ouvrent les portes en s’amusant

A large red quadrupedal robot with wheels at the end of its limbs balances on two legs as it opens a door and throws a package into a box.

Un grand robot quadrupède rouge doté de roues à l’extrémité de ses membres se tient en équilibre sur ses deux jambes tout en ouvrant une porte et en jetant un paquet dans une boîte.

La version modifiée du quadrupède ANYmal, telle que personnalisée par la société Swiss-Mile, basée à Zurich, ne cesse de s’améliorer. En partant d’un quadrupède commercial, l’ajout de roues motorisées a rendu le robot rapide et efficace, tout en lui permettant d’emprunter les trottoirs et les escaliers.

Il y a quelques années, le robot a appris à se tenir debout, ce qui est une façon efficace de se déplacer et rend le robot beaucoup plus agréable à étreindre, mais plus important encore, cela a débloqué le potentiel du robot pour commencer à faire des manipulations avec ses bras-roues-mains-jambes.

Toute manipulation pratique avec ANYmal est compliquée, car ses membres ont été conçus pour être des jambes et non des bras. Mais au Robotic Systems Lab de l’ETH Zurich, on a réussi à apprendre à ce robot à utiliser ses membres pour ouvrir des portes, et même pour saisir un paquet sur une table et le jeter dans une boîte.

Lorsqu’il commet une erreur dans le monde réel, le robot a déjà acquis les compétences nécessaires pour s’en remettre.

Les chercheurs de l’ETHZ ont obtenu du robot qu’il exécute de manière fiable ces comportements complexes en utilisant un type d’apprentissage par renforcement appelé « curiosity driven » (apprentissage par la curiosité). Dans la simulation, le robot se voit assigner un objectif qu’il doit atteindre – dans ce cas, le robot est récompensé s’il parvient à franchir une porte ou à mettre un paquet dans une boîte.

Il s’agit d’objectifs de très haut niveau (également appelés « récompenses éparses »), et le robot ne reçoit aucun encouragement en cours de route. Au lieu de cela, il doit trouver comment accomplir l’ensemble de la tâche en partant de zéro.

L’étape suivante consiste à doter le robot d’un sens de la surprise basé sur le contact.

S’il disposait d’un temps de simulation trop court, le robot découvrirait probablement comment accomplir ces tâches par lui-même. Mais pour lui donner un point de départ utile, les chercheurs ont introduit le concept de curiosité, qui encourage le robot à jouer avec des objets liés à un objectif.

« Dans le contexte de ce travail, la curiosité fait référence à un désir naturel ou à une motivation pour notre robot d’explorer et d’apprendre à connaître son environnement », explique l’auteur Marko Bjelonic, « ce qui lui permet de découvrir des solutions pour des tâches sans que les ingénieurs aient besoin de spécifier explicitement ce qu’il faut faire ».

Pour la tâche d’ouverture de porte, on demande au robot d’être curieux de la position de la poignée de la porte, tandis que pour la tâche de saisie du paquet, on lui demande d’être curieux du mouvement et de l’emplacement du paquet. En tirant parti de cette curiosité pour trouver des moyens de jouer et de modifier ces paramètres, le robot atteint ses objectifs, sans que les chercheurs n’aient à lui fournir d’autres informations.

Les comportements que le robot obtient grâce à ce processus sont fiables et diversifiés, ce qui est l’un des avantages de l’utilisation de récompenses éparses. « Le processus d’apprentissage est sensible aux petites modifications de l’environnement d’apprentissage », explique Marko Bjelonic. « Cette sensibilité permet à l’agent d’explorer diverses solutions et trajectoires, ce qui peut conduire à l’accomplissement de tâches plus innovantes dans des scénarios complexes et dynamiques. »

Par exemple, pour la tâche d’ouverture de porte, le robot a découvert comment l’ouvrir avec l’un ou l’autre de ses effecteurs, ou les deux en même temps, ce qui le rend plus apte à accomplir la tâche dans le monde réel. La manipulation de colis est encore plus intéressante, car le robot a parfois fait tomber le colis lors de l’entraînement, mais il a appris de manière autonome à le ramasser. Ainsi, lorsqu’il commet une erreur dans le monde réel, le robot a déjà acquis les compétences nécessaires pour se relever.

Il y a encore un peu de tricherie au niveau de la recherche, puisque le robot s’appuie sur le système AprilTags basé sur un code visuel pour lui indiquer où se trouvent les choses importantes (comme les poignées de porte) dans le monde réel. Mais il s’agit d’un raccourci mineur, car la détection directe d’éléments tels que les portes et les paquets est un problème assez bien compris. Selon Marko Bjelonic, la prochaine étape consistera à doter le robot d’un sens de la surprise basé sur le contact, afin d’encourager l’exploration, ce qui est un peu plus doux que ce que nous voyons ici.

N’oublions pas non plus que s’il s’agit bien d’un article de recherche, Swiss-Mile est une entreprise qui souhaite que ce robot soit utilisé dans le monde entier pour faire des choses utiles. Ainsi, contrairement à la plupart des travaux de recherche pure que nous couvrons, il y a un peu plus de chances que cet ANYmal se fraye un chemin jusqu’à une application pratique.

https://spectrum.ieee.org/quadruped-robot-wheels

https://robotsguide.com/robots/anymal

https://rsl.ethz.ch/

https://towardsdatascience.com/curiosity-driven-learning-made-easy-part-i-d3e5a2263359

https://www.markobjelonic.com/

https://april.eecs.umich.edu/software/apriltag

Le ministère britannique de la défense souhaite ajouter la technologie ChatGPT aux robots de simulation de combat

SimStriker est conçu pour offrir aux soldats un environnement de combat réaliste.

Si votre droïde de simulation de combat rapproché n’est pas assez bavard, le ministère britannique de la défense (MoD) vous soutient. Il a passé un contrat avec la société 4GD, spécialiste de l’entraînement au combat, pour ajouter des modèles de langage ChatGPT à ses cibles robotisées SimStriker.

Avec le développement des missiles, des drones, des robots et des capteurs à distance, il est facile d’imaginer que les soldats modernes passent leur temps assis devant des écrans et n’ont jamais de contact personnel avec l’ennemi. En réalité, la guerre moderne a permis à l’infanterie et aux forces spéciales d’être confrontées de très près aux forces hostiles dans les zones urbaines.

Ce type de guerre exige une formation spécialisée intense, car un soldat se trouvant dans un espace très peu familier et confiné est appelé à prendre des décisions en une fraction de seconde, souvent sur la base d’informations incomplètes. Il s’agit non seulement de mener à bien la mission, mais aussi d’assurer la sécurité du groupe de combat, d’être capable de distinguer l’ennemi des civils et des otages, et de distinguer les vraies victimes de celles qui se cachent pour tendre une embuscade.

Cette formation repose sur une pratique constante de divers scénarios plus ou moins réalistes, jusqu’à ce que les réactions deviennent une question de réflexe et de mémoire musculaire plutôt qu’une décision consciente. Cela signifie que l’environnement d’entraînement doit parfois être très réaliste.

Un robot cible SimStriker

Le SimStriker de 4GD est en cours de développement depuis 2020. Il s’agit d’un système de capteurs et de cibles interactives installés dans des couloirs et des salles semblables à des labyrinthes. À ce jour, l’installation a été utilisée par la 16e brigade d’assaut aérien de l’armée britannique à Colchester, ainsi que par la brigade d’assaut aérien, la police de l’Essex et la police du ministère de la Défense.

Bien que les cibles SimStriker ressemblent à des mannequins de tailleur de haute technologie, elles sont motorisées et comprennent des capteurs de frappe qui enregistrent la précision et la cadence de tir des soldats participants. En outre, elles peuvent détecter les mouvements, la lumière et les sons. Ils peuvent également réagir verbalement, donner l’alerte et riposter avec des armes non létales.

Mais le ministère de la défense, par l’intermédiaire de l’accélérateur de défense et de sécurité (DASA), souhaite ajouter le système ChatGPT d’OpenAI pour rendre les choses encore plus réelles en donnant aux cibles les moyens de mener ce que l’on appelle des « conversations synthétiques » avec les soldats et leur équipement, par exemple par l’intermédiaire de flux de médias sociaux. De cette manière, les séances d’entraînement peuvent être plus variées, plus dynamiques et plus immersives, tout en offrant aux superviseurs d’entraînement une plus grande variété de scénarios sur mesure.

« Nous nous réjouissons de cette nouvelle étape dans le développement de SimStriker », a déclaré James Crowley, directeur du développement commercial de 4GD. « Ce contrat attribué par la DASA prouve que 4GD, en collaboration avec ses partenaires industriels, continue d’adapter ses solutions afin d’obtenir les meilleurs résultats en matière de formation. La SmartFacility de 4GD a été conçue pour apporter du réalisme aux simulations d’entraînement militaire et l’utilisation de l’IA ajoute une autre dimension de réalité aux scénarios de guerre urbaine. »

https://www.4gd.co.uk/

Yara annonce le premier porte-conteneurs au monde propulsé à l’ammoniac propre

Le Yara Eyde promet d’être le premier porte-conteneurs au monde propulsé à l’ammoniac propre

L’ammoniac vert offre une solution à l’une des tâches les plus difficiles de la décarbonation : remplacer le diesel dans les grands navires. Yara va de l’avant en s’engageant à lancer le premier porte-conteneurs au monde propulsé à l’ammoniac propre, prêt à entrer en service en 2026.

Le diesel marin est une source d’énergie incroyablement pratique pour les grands navires, stockant beaucoup d’énergie et étant facilement disponible quel que soit le port dans lequel vous arrivez. Mais si le transport maritime est un moyen relativement efficace de transporter des marchandises en vrac, il est également responsable de 1,7 à 3 % des émissions mondiales de CO2, selon à qui vous le demandez, et il devra être nettoyé dans la course au zéro.

Les batteries ne constituent pas un démarreur dans les grandes applications marines ; ils sont trop gros et trop lourds, et ils ne transportent tout simplement pas assez d’énergie. Même l’hydrogène, sous forme liquide ou gazeuse, ne peut pas transporter suffisamment d’énergie pour pousser ces énormes navires suffisamment loin dans l’eau pour les rendre pratiques pour la plupart des applications. Le méthanol offre une étape de transition assez accessible, mais il ne sera jamais un carburant totalement vert, donc si l’humanité veut être décarbonée d’ici 2050, ce sera une impasse de 30 ans.

Ce qui fait de l’ammoniac l’une des principales options pour une expédition propre. C’est loin d’être une solution parfaite ; Le diesel transporte toujours deux fois plus d’énergie en poids et environ deux fois et demie plus en volume.

Mais l’ammoniac peut être brûlé proprement dans un moteur à combustion, à condition que le processus soit bien géré pour éviter de produire des oxydes d’azote, qu’il fournisse suffisamment d’énergie pour couvrir certaines routes maritimes, et qu’il s’agisse d’un produit chimique largement produit à des fins agricoles, il est donc relativement accessible même aujourd’hui.

Il s’agira au départ d’un porte-conteneurs relativement petit, effectuant une route assez courte entre la Norvège et l’Allemagne.

Le fabricant norvégien de produits chimiques Yara a expédié environ 3,8 millions de tonnes d’ammoniac vert ou bleu en 2022, ce qui montre clairement pourquoi il souhaite lancer le transport maritime à l’ammoniac. Yara International s’est associé à sa filiale Yara Clean Ammonia et North Sea Container Line pour mettre en service ce qui, selon elle, deviendra le premier porte-conteneurs d’ammoniac au monde.

Le Yara Eyde sera un navire relativement petit à côté de certains des géants du transport de conteneurs, et il devrait également parcourir une route assez courte, faisant des allers-retours entre la Norvège et l’Allemagne. Ses deux points de destination les plus éloignés, Oslo et Hambourg, ne sont distants que d’environ 442 milles marins (818 km) par bateau, de sorte que l’autonomie réduite en carburant du navire ne devrait pas créer trop de problèmes.

Yara et North Sea créent une coentreprise pour construire le navire, avec l’aide d’une subvention de 3,7 millions de dollars de l’organisation norvégienne de financement du climat et de l’énergie Enova. La coentreprise vise à se concentrer entièrement sur le transport d’ammoniac, en construisant davantage de navires après le lancement du Yara Eyde en 2026.

Il s’agit d’un trajet relativement court, mais qui permettra néanmoins d’économiser environ 11 000 tonnes d’émissions de CO2 par an.

Le navire devrait éliminer 11 000 tonnes d’émissions de CO2 par an, tout en donnant à un certain nombre de fabricants la possibilité de décarboner leurs chaînes logistiques internationales.

« Pour réussir à décarboniser le transport maritime, les technologies à faibles émissions doivent être mises à l’échelle commerciale au cours de la prochaine décennie », déclare Magnus Krogh Ankarstrand, président de Yara Clean Ammonia, dans un communiqué de presse.

« Nous constatons une demande croissante de la part des propriétaires de marchandises de réduire les émissions. Yara Eyde propose aux propriétaires de marchandises une logistique compétitive et sans émissions », déclare Bente Hetland de North Sea Container Line.

https://www.yara.com/corporate-releases/the-worlds-first-clean-ammonia-powered-container-ship/

Une étude montre que l’inoculation du sol avec des champignons mycorhiziens peut augmenter le rendement des plantes de 40 %.

Les terres agricoles abritent souvent une multitude d’agents pathogènes qui attaquent les plantes et réduisent les rendements. Une équipe de recherche suisse vient de montrer que l’inoculation du sol avec des champignons mycorhiziens peut contribuer à maintenir, voire à améliorer les rendements sans utiliser d’engrais ou de pesticides supplémentaires. Lors d’un essai à grande échelle sur le terrain, le rendement des plantes a augmenté de 40 %.

L’utilisation intensive d’engrais et de pesticides dans les champs réduit la biodiversité et pollue l’environnement. Il y a donc un grand intérêt à trouver des moyens durables de protéger les rendements sans utiliser de produits chimiques agricoles. Les champignons mycorhiziens, des organismes bénéfiques qui aident les plantes à acquérir des nutriments, sont un exemple de produits biologiques alternatifs.

Des rendements améliorés jusqu’à 40 %

Une équipe de chercheurs des universités de Zurich et de Bâle, d’Agroscope et de l’Institut de recherche de l’agriculture biologique (FiBL) a démontré pour la première fois à grande échelle que l’application de champignons mycorhiziens dans les champs fonctionne. Les champignons ont été mélangés au sol avant l’ensemencement des cultures sur 800 parcelles d’essai dans 54 exploitations de maïs du nord et de l’est de la Suisse.

« Sur un quart des parcelles, les champignons mycorhiziens ont permis d’améliorer les rendements de 40 %. C’est énorme », déclare le codirecteur de l’étude, Marcel van der Heijden, écologiste du sol à l’Université de Zurich et à l’Asgroscope. Mais il y a un hic : sur un tiers des parcelles, le rendement n’a pas augmenté et a même parfois diminué. Dans un premier temps, l’équipe de chercheurs n’a pas été en mesure d’expliquer ce phénomène.

Des agents pathogènes dans le sol

Dans leur recherche de la cause, les chercheurs ont analysé une variété de propriétés chimiques, physiques et biologiques du sol, y compris la biodiversité des microbes du sol. « Nous avons découvert que l’inoculation fonctionnait mieux lorsqu’il y avait déjà beaucoup de pathogènes fongiques dans le sol », explique Stefanie Lutz, coauteur du premier article, d’Agroscope, le centre de compétence fédéral pour la recherche agricole.

« Les champignons mycorhiziens agissent comme une sorte de bouclier protecteur contre les pathogènes présents dans le sol qui affaibliraient les plantes ». Par conséquent, le rendement normal peut être maintenu dans des champs où, sans les champignons mycorhiziens, il y aurait eu des pertes. En revanche, les champignons mycorhiziens n’ont eu qu’un effet mineur sur les champs qui n’étaient pas contaminés par des agents pathogènes.« 

« Les plantes y sont de toute façon fortes et poussent très bien. L’utilisation de champignons mycorhiziens dans ces cas-là n’apporte aucun avantage supplémentaire », explique l’autre premier auteur, Natacha Bodenhausen, de l’Institut de recherche sur l’agriculture biologique.

L’objectif de l’étude était de pouvoir prédire les conditions dans lesquelles l’inoculation mycorhizienne fonctionne.

« Avec seulement quelques indicateurs du sol – principalement les champignons du sol – nous avons pu prédire le succès de l’inoculation dans neuf champs sur dix, et donc le rendement de la récolte avant même la saison de culture », explique le codirecteur de l’étude, Klaus Schläppi, de l’université de Bâle. « Cette prévisibilité permet de cibler l’utilisation des champignons dans les champs où ils seront efficaces. Il s’agit là d’un élément essentiel pour faire de ces technologies une méthode agricole fiable », explique Klauss Schläppi.

Des recherches supplémentaires sont encore nécessaires pour trouver le moyen le plus simple de répandre les champignons sur de grandes surfaces. Néanmoins, « les résultats de cet essai sur le terrain représentent un grand pas vers une agriculture plus durable », conclut Marcel van der Heijden.

https://phys.org/news/2023-11-inoculating-soil-mycorrhizal-fungi-yield.html

https://www.nature.com/articles/s41564-023-01520-w

https://www.news.uzh.ch/en/articles/media/2023/Fields.html

Le FlightLab d’Airbus se pilote tout seul pendant que le pilote surveille le tout avec une tablette

Le système autonome permet au pilote d’intervenir à l’aide d’une interface sur tablette.

Après avoir présenté des commandes d’hélicoptère simplifiées, le FlightLab d’Airbus Helicopters a effectué un vol entièrement automatisé en testant une nouvelle interface homme-machine (IHM) simplifiée basée sur une tablette et conçue pour réduire la charge de travail des pilotes et accroître la sécurité.

Normalement, le pilotage d’un hélicoptère est si compliqué qu’il nécessite les deux mains, les deux pieds et la troisième main que l’on n’a pas en réalité. Comme le pilotage en général est déjà une tâche qui demande beaucoup d’attention, il n’est pas surprenant qu’Airbus Helicopters et d’autres cherchent à simplifier le travail pour rendre les hélicoptères plus sûrs et réduire la charge de travail des pilotes.

Dans le cadre du projet Vertex, la technologie utilisée lors des essais en vol qui se sont déroulés du 27 octobre au 22 novembre sur le site d’Airbus Helicopters à Marignane, en France, a été développée par Airbus UpNext et fait partie d’un certain nombre de systèmes testés par FlightLab.

À l’aide de capteurs de vision, d’algorithmes de connaissance de la situation et de détection des obstacles, de systèmes autonomes à commandes de vol électriques et d’une interface homme-machine avancée, FlightLab a été en mesure d’effectuer toutes les phases de préparation de la mission, de vérifications avant le vol, de mise sous tension, de roulage, de décollage, de croisière, d’approche et d’atterrissage au cours d’un vol d’essai d’une durée d’une heure.

Pendant ce temps, le pilote surveillait le vol à l’aide d’une interface sur tablette et d’un écran porté sur la tête, et pouvait intervenir si le système ne détectait pas d’obstacles et recalculer une autre trajectoire sûre.

Cette technologie n’est pas destinée à remplacer un pilote humain, mais à lui servir d’assistant. Toutefois, elle peut également être transférée à des plateformes robotisées (e)VTOL ainsi qu’à d’autres hélicoptères.

« Cette démonstration réussie d’un vol entièrement autonome du décollage à l’atterrissage est un grand pas vers la réduction de la charge de travail du pilote et la simplification de l’interface homme-machine que l’équipe Urban Air Mobility d’Airbus a l’intention de mettre en œuvre sur CityAirbus NextGen. Elle pourrait également avoir des applications immédiates pour les hélicoptères effectuant des vols à basse altitude à proximité d’obstacles grâce aux informations fournies par les lidars embarqués », a déclaré Michael Augello, CEO d’Airbus UpNext.

https://www.airbus.com/en/newsroom/press-releases/2023-11-at-your-fingertips-airbus-flies-a-fully-automated-helicopter-with-a

Sony Electronics et Associated Press terminent les tests de la technologie avancée d’authenticité intégrée à l’appareil photo pour répondre aux préoccupations croissantes concernant les fausses images

La nouvelle solution de signature intégrée à l’appareil photo joint un certificat numérique aux photos au point de capture pour en certifier la légitimité

Le 21 Novembre dernier, Sony Electronics a annoncé l’achèvement d’une deuxième série de tests pour la technologie d’authenticité intégrée à l’appareil photo de Sony avec Associated Press. Cette signature numérique intégrée à l’appareil photo permet de créer un acte de naissance pour les images, validant l’origine du contenu.

La technologie d’authenticité de Sony fournit une signature numérique basée sur une machine, éliminant ainsi toute possibilité de manipulation non détectée au départ. La signature numérique est réalisée à l’intérieur de l’appareil photo au moment de la capture dans le chipset matériel.

Cette fonction de sécurité s’adresse aux professionnels souhaitant préserver l’authenticité de leur contenu et fournit une couche de sécurité supplémentaire pour aider les agences de presse dans leur lutte contre les images falsifiées.

« Même si l’évolution rapide de l’IA générative (Intelligence Artificielle) apporte de nouvelles possibilités d’expression créative, elle a également suscité une inquiétude croissante quant à l’impact des images altérées ou manipulées dans le journalisme », déclare Neal Manowitz , président et directeur de l’exploitation de Sony Electronics.

« La diffusion de fausses informations et d’images a un impact social réel qui porte préjudice non seulement à nos photojournalistes et agences de presse partenaires, mais à la société dans son ensemble. Nous sommes profondément préoccupés par ce défi et nous nous engageons à utiliser nos ressources pour aider à le résoudre. Grâce au travail de Sony au sein du comité directeur de la C2PA (Coalition for Content Provenance and Authenticity), nous avons contribué à établir la norme actuelle de l’industrie en matière de suivi de l’édition et de la manipulation des images. De plus, notre technologie d’authenticité intégrée à l’appareil photo a donné des résultats précieux, et nous continuerons à pousser son développement vers une version plus large. »

« Les images fausses et manipulées sont une préoccupation majeure pour les agences de presse. Non seulement elles contribuent à la désinformation, mais en fin de compte, elles érodent la confiance du public dans des images factuelles et précises », a déclaré David Ake, directeur de la photographie d’AP. « Nous sommes fiers de travailler aux côtés de Sony Electronics pour créer une solution d’authentification qui peut aider à lutter contre ce problème. »

Le test sur le terrain le plus récent de Sony et AP s’est terminé en octobre 2023. Au cours de ce test d’un mois, l’authentification de capture et le processus de flux de travail ont été évalués. Pour ce faire, Sony s’est associé à Camera Bits, la société à l’origine de l’outil de flux de travail standard de l’industrie, Photo Mechanic. Aux côtés de Sony et AP, Camera Bits a créé une technologie dans Photo Mechanic qui préserve la signature numérique de l’appareil photo tout au long du processus d’édition des métadonnées.

« Nous apprécions le défi important que pose l’imagerie manipulée pour nos partenaires, et nous sommes très motivés à jouer un rôle pour aider à le résoudre », déclare Dennis Walker, président et fondateur de Camera Bits. « Photo Mechanic est utilisé par l’industrie du photojournalisme depuis 25 ans et continue d’évoluer à mesure que l’industrie introduit de nouvelles technologies. Nous nous engageons à garantir que Photo Mechanic reste une solution de flux de travail fiable et authentique. »

La nouvelle signature intégrée à l’appareil photo de Sony et l’authentification C2PA devraient être publiées dans une mise à jour du micrologiciel des Alpha 9 III, Alpha 1 et Alpha 7S III récemment annoncés au printemps 2024.

Est-il possible de « signer » une image numérique pour garantir son authenticité ? Si vous souhaitez en savoir plus sur l’approche de l’industrie sur cette question, explorez les initiatives de la Coalition pour la provenance et l’authenticité du contenu (C2PA). Il a été créé pour lutter contre la désinformation en élaborant des normes techniques qui certifient la source et la provenance des médias.

https://www.prnewswire.com/news-releases/sony-electronics-and-the-associated-press-complete-testing-of-advanced-in-camera-authenticity-technology-to-address-growing-concerns-around-fake-imagery-301995235.html

https://shellypalmer.com/2023/11/sony-and-ap-introduce-in-camera-authentication-to-combat-fake-images/

https://c2pa.org/

La transaction Bitcoin moyenne gaspille une piscine pleine d’eau, disent les scientifiques

Chaque fois que Bitcoin est acheté ou vendu, il gaspille suffisamment d’eau pour remplir une piscine entière, selon de nouvelles recherches, preuve supplémentaire de l’impact environnemental stupéfiant des crypto-monnaies .

La recherche, une étude publiée dans la revue Cell Reports Sustainability , a également révélé que l’empreinte eau du Bitcoin augmente rapidement, augmentant de 166 % entre 2020 et 2021.

On estime désormais que chaque transaction coûte plus de 16 000 litres d’eau. Selon Alex de Vries de la Vrihe Universiteit Amsterdam, seul auteur de l’étude, cela représente environ six millions de fois plus que ce que vous utilisez pour acheter quelque chose avec une carte de crédit.

« C’est un peu difficile de me surprendre, étant donné la façon dont j’ai déjà travaillé sur ce sujet, je suis plutôt habitué à voir de gros chiffres apparaître », a déclaré Alex de Vries à The Verge . « Mais là encore, les chiffres sont toujours époustouflants, même pour moi, à chaque fois que je les regarde. »

Rafraîchis-le

À l’échelle mondiale, l’exploitation minière de Bitcoin a utilisé environ 1 600 gigalitres – soit un milliard de litres multiplié par 1 600 – en 2021, et ce chiffre pourrait dépasser 2 200 gigalitres cette année, les États-Unis représentant à eux seuls jusqu’à 35 gigalitres de cette consommation . Cette forte augmentation sera probablement due à la valeur croissante du Bitcoin , qui encourage davantage d’exploitation minière.

Une énorme quantité d’eau est utilisée pour refroidir les ordinateurs infatigables qui extraient et traitent Bitcoin 24 heures sur 24. Il s’agit d’un processus intensif qui consomme des quantités absurdes d’énergie – autant qu’un petit pays, en fait.

Cette facture énergétique figure dans les calculs de de Vries. La majeure partie de son empreinte eau provient de l’eau utilisée pour produire l’électricité que Bitcoin brûle, bien que les systèmes de refroidissement constituent encore une part massive de la proportion totale.

Réduire les enjeux

Il n’est pas nécessaire que ce soit ainsi, selon de Vries. La plupart des crypto-monnaies, y compris Bitcoin, utilisent ce que l’on appelle une « preuve de travail » pour valider les transactions sur la blockchain – le « travail » étant le minage effectué par ces ordinateurs grillés – ce qui est extrêmement inefficace.

« Vous disposez de millions d’appareils à travers le monde, constamment en compétition les uns avec les autres dans un jeu massif de ce que j’aime décrire comme ‘devinez le nombre' », a déclaré de Vries à la BBC . « Toutes ces machines combinées génèrent 500 quintillions de suppositions chaque seconde de la journée, sans arrêt, soit 500 avec 18 zéros derrière. »

Il existe cependant au moins une crypto-monnaie majeure qui fonctionne autour de ce problème : Ethereum, qui a commencé l’année dernière à utiliser la « preuve de participation » au lieu de travailler pour valider les transactions sans aucune exploitation minière, réduisant ainsi sa facture énergétique de 99 %.

À moins d’abandonner complètement la cryptographie, leur passage à des systèmes plus efficaces pourrait faire « disparaître du jour au lendemain toute la consommation d’électricité » et « la consommation d’eau associée », assure Alex de Vries à The Verge.

Au-delà de cela, l’utilisation d’énergies renouvelables et le passage à des méthodes de refroidissement qui recyclent ou n’utilisent pas d’eau du tout pourraient contribuer à atténuer le sinistre bilan environnemental du minage de cryptomonnaies.

https://futurism.com/the-byte/bitcoin-transaction-wastes-swimming-pool-water

Quatre façons dont l’IA rend le réseau électrique plus rapide et plus résistant

Qu’il s’agisse de prédire les temps de charge des véhicules électriques ou de repérer les zones à haut risque d’incendie de forêt, l’IA transforme notre réseau énergétique.

Le réseau électrique devient de plus en plus complexe à mesure que les sources d’énergie renouvelable se multiplient. Alors qu’autrefois un petit nombre de grandes centrales électriques alimentaient la plupart des foyers à un débit constant, des millions de panneaux solaires produisent aujourd’hui une électricité variable. Les conditions météorologiques de plus en plus imprévisibles ajoutent à la difficulté d’équilibrer l’offre et la demande. Pour gérer ce chaos, les opérateurs de réseaux se tournent de plus en plus vers l’intelligence artificielle.

La capacité de l’IA à apprendre à partir de grandes quantités de données et à répondre à des scénarios complexes la rend particulièrement adaptée à la tâche consistant à maintenir la stabilité du réseau, et un nombre croissant d’éditeurs de logiciels proposent des produits d’IA à l’industrie de l’énergie, réputée pour sa lenteur d’évolution.

Le ministère américain de l’énergie a reconnu cette tendance en accordant récemment 3 milliards de dollars de subventions à divers projets de « réseaux intelligents » comprenant des initiatives liées à l’IA.

L’enthousiasme suscité par l’IA dans le secteur de l’énergie est palpable. Certains spéculent déjà sur la possibilité d’un réseau entièrement automatisé où, en théorie, aucun humain ne serait nécessaire pour prendre les décisions quotidiennes.

Mais cette perspective est encore lointaine ; pour l’instant, la promesse réside dans la possibilité pour l’IA d’aider les humains, en fournissant des informations en temps réel pour une meilleure gestion du réseau. Voici quatre façons dont l’IA modifie déjà la façon dont les opérateurs de réseau font leur travail.

1. Une prise de décision plus rapide et plus efficace

Le réseau électrique est souvent décrit comme la machine la plus complexe jamais construite. En raison de l’immensité du réseau, il est impossible pour une seule personne de comprendre tout ce qui s’y passe à un moment donné, et encore moins de prédire ce qui se passera plus tard.

Feng Qiu, scientifique à l’Argonne National Laboratory, un institut de recherche financé par le gouvernement fédéral, explique que l’IA aide le réseau de trois manières principales : en aidant les opérateurs à comprendre les conditions actuelles, à prendre de meilleures décisions et à prévoir les problèmes potentiels.

Feng Qiu a passé des années à rechercher comment l’apprentissage automatique peut améliorer les opérations du réseau. En 2019, son équipe s’est associée à Midcontinent Independent System Operator (MISO), un opérateur de réseau desservant 15 États américains et certaines parties du Canada, pour tester un modèle d’apprentissage automatique destiné à optimiser la planification quotidienne d’un réseau d’une taille comparable à celle du vaste réseau de MISO.

Chaque jour, les opérateurs de réseaux comme MISO effectuent des calculs mathématiques complexes pour prédire la quantité d’électricité qui sera nécessaire le lendemain et tentent de trouver le moyen le plus rentable de distribuer cette énergie.

Le modèle d’apprentissage automatique de l’équipe de Feng Qiu a montré que ce calcul peut être effectué 12 fois plus rapidement que ce qui est possible sans l’IA, réduisant le temps nécessaire de près de 10 minutes à 60 secondes. Étant donné que les opérateurs de systèmes effectuent ces calculs plusieurs fois par jour, le gain de temps pourrait être considérable.

Actuellement, l’équipe de Feng Qiu met au point un modèle permettant de prévoir les pannes de courant en intégrant des facteurs tels que la météo, la géographie et même les niveaux de revenus des différents quartiers. Grâce à ces données, le modèle peut mettre en évidence des schémas tels que la probabilité de pannes de courant plus longues et plus fréquentes dans les zones à faibles revenus dotées d’une infrastructure médiocre. De meilleures prévisions peuvent aider à prévenir les pannes, à accélérer les interventions en cas de catastrophe et à minimiser les souffrances lorsque de tels problèmes surviennent.

2. Une approche sur mesure pour chaque foyer

Les efforts d’intégration de l’IA ne se limitent pas aux laboratoires de recherche. Lunar Energy, une start-up spécialisée dans les batteries et les technologies de réseau, utilise des logiciels d’IA pour aider ses clients à optimiser leur consommation d’énergie et à économiser de l’argent.

« Vous avez ce réseau de millions d’appareils et vous devez créer un système qui peut prendre toutes les données et prendre la bonne décision, non seulement pour chaque client individuel, mais aussi pour le réseau », explique Sam Wevers, responsable des logiciels chez Lunar Energy. « C’est là que la puissance de l’IA et de l’apprentissage automatique entre en jeu.« 

Le logiciel Gridshare de Lunar Energy rassemble les données de dizaines de milliers de foyers, collectant des informations sur l’énergie utilisée pour charger les véhicules électriques, faire fonctionner les lave-vaisselle et les climatiseurs, etc. Combinées aux données météorologiques, ces informations alimentent un modèle qui crée des prévisions personnalisées des besoins énergétiques de chaque foyer.

À titre d’exemple, Sam Wevers décrit un scénario dans lequel deux maisons d’une même rue ont des panneaux solaires de taille identique, mais l’une d’entre elles a un grand arbre dans son jardin qui crée de l’ombre l’après-midi, de sorte que ses panneaux génèrent un peu moins d’énergie. Ce type de détail serait impossible à suivre manuellement par les compagnies d’électricité au niveau des ménages, mais l’IA permet d’effectuer ce genre de calculs automatiquement à grande échelle.

Les services tels que Gridshare sont principalement conçus pour aider les clients individuels à économiser de l’argent et de l’énergie. Mais dans l’ensemble, ils fournissent également aux entreprises de services publics des modèles de comportement plus clairs qui les aident à améliorer la planification énergétique. La saisie de ces nuances est essentielle pour la réactivité du réseau.

3. Faire fonctionner les VE avec le réseau

Bien qu’ils soient essentiels à la transition vers les énergies propres, les véhicules électriques représentent un véritable défi pour le réseau.

John Taggart, cofondateur et directeur technique de WeaveGrid, explique que l’adoption des VE augmente considérablement la demande d’énergie. « La dernière fois qu’elles [les compagnies d’électricité] ont dû faire face à ce type de croissance, c’était lorsque les climatiseurs ont fait leur apparition », explique-t-il.

L’adoption des VE a également tendance à se concentrer dans certaines villes et certains quartiers, ce qui peut surcharger le réseau local. Pour alléger ce fardeau, la société WeaveGrid, basée à San Francisco, collabore avec les entreprises de services publics, les constructeurs automobiles et les sociétés de recharge pour collecter et analyser les données relatives à la recharge des VE.

En étudiant les schémas et les durées de charge, WeaveGrid identifie les heures de charge optimales et fait des recommandations aux clients par message texte ou notification d’application sur le moment où ils doivent charger leur véhicule.

Dans certains cas, les clients accordent aux entreprises le contrôle total pour charger ou décharger automatiquement les batteries en fonction des besoins du réseau, en échange d’incitations financières telles que des bons d’achat. Les voitures deviennent ainsi une source précieuse de stockage d’énergie pour le réseau. De grandes entreprises de services publics comme PG&E, DTE et Xcel Energy se sont associées à ce programme.

DTE Energy, une entreprise de services publics basée à Détroit qui dessert le sud du Michigan, a travaillé avec WeaveGrid pour améliorer la planification du réseau. L’entreprise affirme qu’elle a pu identifier 20 000 foyers équipés de VE dans sa région de service et qu’elle utilise ces données pour calculer les prévisions de charge à long terme.

4. Repérer les catastrophes avant qu’elles ne se produisent

Plusieurs entreprises de services publics ont déjà commencé à intégrer l’IA dans des opérations critiques, en particulier l’inspection et la gestion d’infrastructures physiques telles que les lignes de transmission et les transformateurs.

Par exemple, les arbres en surnombre sont l’une des principales causes de pannes d’électricité, car les branches peuvent tomber sur les fils électriques ou déclencher des incendies. Traditionnellement, l’inspection manuelle est la norme, mais compte tenu de l’étendue des lignes de transmission, elle peut prendre plusieurs mois.

PG&E, qui couvre le nord et le centre de la Californie, utilise l’apprentissage automatique pour accélérer ces inspections. En analysant les photographies prises par des drones et des hélicoptères, les modèles d’apprentissage automatique identifient les zones nécessitant l’élagage des arbres ou repèrent les équipements défectueux qui doivent être réparés.

Certaines entreprises vont encore plus loin et utilisent l’IA pour évaluer les risques climatiques généraux.

Le mois dernier, Rhizome, une startup basée à Washington, DC, a lancé un système d’IA qui utilise les données historiques des entreprises de services publics sur les performances des équipements énergétiques et les combine avec des modèles climatiques mondiaux pour prédire la probabilité de défaillances du réseau résultant d’événements météorologiques extrêmes, tels que les tempêtes de neige ou les incendies de forêt.

Il existe des dizaines d’améliorations qu’une entreprise de services publics peut apporter pour renforcer sa résilience, mais elle n’a ni le temps ni les fonds nécessaires pour les mettre toutes en œuvre en même temps, explique Mish Thadani, cofondateur et directeur général de Rhizome. Avec un tel logiciel, les entreprises de services publics peuvent désormais prendre des décisions plus intelligentes sur les projets à privilégier.

Quelle est la prochaine étape pour les exploitants de réseaux ?

Si l’IA est capable de prendre rapidement toutes ces décisions, est-il possible de la laisser gérer le réseau et de renvoyer les opérateurs humains chez eux ? Les experts répondent par la négative.

Il reste plusieurs obstacles majeurs à franchir avant de pouvoir automatiser complètement le réseau. La sécurité est la principale préoccupation.

Feng Qiu explique qu’à l’heure actuelle, des protocoles et des contrôles stricts sont en place pour éviter les erreurs dans les décisions critiques concernant des questions telles que la manière de réagir à des pannes potentielles ou à des défaillances d’équipement.

« Le réseau électrique doit suivre une loi physique très rigoureuse », explique Feng Qiu. Bien qu’elle soit excellente pour améliorer les calculs mathématiques contrôlés, l’IA n’est pas encore en mesure d’intégrer les contraintes d’exploitation et les cas limites qui se présentent dans le monde réel. Cela représente un risque trop important pour les exploitants de réseaux, dont l’objectif premier est la fiabilité. Une mauvaise décision au mauvais moment pourrait entraîner des pannes d’électricité massives.

La confidentialité des données est un autre problème. Jeremy Renshaw, cadre technique supérieur à l’Electric Power Research Institute, estime qu’il est essentiel d’anonymiser les données des clients afin de protéger les informations sensibles, telles que les heures auxquelles les gens restent chez eux.

Les modèles d’IA risquent également de perpétuer des préjugés qui pourraient désavantager les communautés vulnérables. Historiquement, les quartiers pauvres ont souvent été les derniers à bénéficier d’un rétablissement de l’électricité après une panne, explique Jeremy Renshaw. Les modèles formés à partir de ces données pourraient continuer à leur attribuer une priorité moindre lorsque les services publics s’efforcent de rétablir le courant.

Pour remédier à ces biais potentiels, Jeremy Renshaw souligne l’importance de la formation du personnel lorsque les entreprises adoptent l’IA, afin qu’il comprenne quelles tâches sont ou ne sont pas appropriées pour la technologie.

 « Vous pourriez probablement enfoncer une vis à l’aide d’un marteau, mais si vous utilisez le tournevis, cela fonctionnera probablement beaucoup mieux », conclut-il.

https://www.technologyreview.com/2023/11/22/1083792/ai-power-grid-improvement/

Le nouvel outil d’IA de Google DeepMind a contribué à la création de plus de 700 nouveaux matériaux

Les matériaux nouvellement découverts peuvent être utilisés pour améliorer les cellules solaires, les batteries, les puces électroniques, etc.

Qu’il s’agisse de batteries de véhicules électriques, de cellules solaires ou de puces électroniques, les nouveaux matériaux peuvent donner un coup de fouet aux percées technologiques. Mais pour les découvrir, il faut généralement des mois, voire des années, de recherche par essais et erreurs.

Google DeepMind espère changer cela grâce à un nouvel outil qui utilise l’apprentissage profond pour accélérer considérablement le processus de découverte de nouveaux matériaux. Baptisée « réseaux graphiques pour l’exploration des matériaux » (GNoME : graphical networks for material exploration), cette technologie a déjà été utilisée pour prédire les structures de 2,2 millions de nouveaux matériaux, dont plus de 700 ont été créés en laboratoire et font actuellement l’objet d’essais. Cette technologie est décrite dans un article publié aujourd’hui dans la revue Nature.

Parallèlement à GNoME, le Lawrence Berkeley National Laboratory a également annoncé la création d’un nouveau laboratoire autonome. Ce laboratoire utilise les données de la base de données sur les matériaux, qui comprend certaines des découvertes de GNoME, et recourt à l’apprentissage automatique et à des bras robotisés pour créer de nouveaux matériaux sans l’aide de l’homme. Selon Google DeepMind, ces avancées démontrent le potentiel de l’utilisation de l’IA pour accélérer la découverte et le développement de nouveaux matériaux.

L’entreprise a déjà utilisé son IA de repliement des protéines, AlphaFold, pour générer des structures pour le protéome humain, ainsi que pour la levure, la mouche des fruits, la souris, etc.

Selon Ju Li, professeur de science et d’ingénierie des matériaux au Massachusetts Institute of Technology, GNoME peut être décrit comme AlphaFold pour la découverte de matériaux. AlphaFold, un système d’IA de DeepMind annoncé en 2020, prédit les structures des protéines avec une grande précision et a depuis fait progresser la recherche biologique et la découverte de médicaments. Grâce à GNoME, le nombre de matériaux stables connus a presque décuplé, pour atteindre 421 000.

« Alors que les matériaux jouent un rôle essentiel dans presque toutes les technologies, l’humanité ne connaît que quelques dizaines de milliers de matériaux stables », a déclaré Dogus Cubuk, responsable de la découverte des matériaux chez Google DeepMind, lors d’une conférence de presse.

Pour découvrir de nouveaux matériaux, les scientifiques combinent des éléments du tableau périodique. Mais comme les combinaisons sont très nombreuses, il est inefficace de procéder à ce processus à l’aveuglette. Au lieu de cela, les chercheurs s’appuient sur les structures existantes, en y apportant de petites modifications dans l’espoir de découvrir de nouvelles combinaisons prometteuses. Toutefois, ce processus minutieux prend beaucoup de temps. De plus, comme il s’appuie sur des structures existantes, il limite le potentiel de découvertes inattendues.

Pour surmonter ces limites, DeepMind combine deux modèles d’apprentissage profond différents. Le premier génère plus d’un milliard de structures en apportant des modifications aux éléments des matériaux existants. Le second, en revanche, ignore les structures existantes et prédit la stabilité de nouveaux matériaux uniquement sur la base de formules chimiques. La combinaison de ces deux modèles permet d’élargir considérablement l’éventail des possibilités.

Une fois les structures candidates générées, elles sont filtrées par les modèles GNoME de DeepMind. Ces modèles prédisent l’énergie de décomposition d’une structure donnée, qui est un indicateur important de la stabilité du matériau. Les matériaux « stables » ne se décomposent pas facilement, ce qui est important pour l’ingénierie. GNoME sélectionne les candidats les plus prometteurs, qui font l’objet d’une évaluation plus poussée sur la base de cadres théoriques connus.

Ce processus est ensuite répété plusieurs fois, chaque découverte étant intégrée dans le cycle de formation suivant.

Lors du premier cycle, GNoME a prédit la stabilité de différents matériaux avec une précision d’environ 5 %, mais celle-ci a augmenté rapidement tout au long du processus d’apprentissage itératif. Les résultats finaux montrent que GNoME est parvenu à prédire la stabilité des structures dans plus de 80 % des cas pour le premier modèle et dans 33 % des cas pour le second.

L’utilisation de modèles d’IA pour trouver de nouveaux matériaux n’est pas une idée nouvelle. Le Materials Project, un programme dirigé par Kristin Persson au Berkeley Lab, a utilisé des techniques similaires pour découvrir et améliorer la stabilité de 48 000 matériaux.

Cependant, la taille et la précision de GNoME le distinguent des efforts précédents. Selon Chris Bartel, professeur adjoint de génie chimique et de science des matériaux à l’université du Minnesota, il a été formé sur un nombre de données supérieur d’au moins un ordre de grandeur à celui de tous les modèles précédents.

Yifei Mo, professeur agrégé de science et d’ingénierie des matériaux à l’université du Maryland, explique que la réalisation de calculs similaires était jusqu’à présent coûteuse et limitée en termes d’échelle. GNoME permet d’augmenter l’échelle de ces calculs avec une plus grande précision et un coût de calcul beaucoup plus faible, explique Yifei Mo : « L’impact peut être énorme. »

Une fois que de nouveaux matériaux ont été identifiés, il est tout aussi important de les synthétiser et de prouver leur utilité. Le nouveau laboratoire autonome du Berkeley Lab, baptisé A-Lab, a utilisé certaines des découvertes du GNoME avec les informations du Materials Project, en intégrant la robotique et l’apprentissage automatique pour optimiser le développement de ces matériaux.

Le laboratoire est capable de prendre ses propres décisions quant à la fabrication d’un matériau proposé et crée jusqu’à cinq formulations initiales. Ces formulations sont générées par un modèle d’apprentissage automatique formé à partir de la littérature scientifique existante. Après chaque expérience, le laboratoire utilise les résultats pour ajuster les recettes.

Selon les chercheurs du Berkeley Lab, A-Lab a pu réaliser 355 expériences en 17 jours et a réussi à synthétiser 41 des 58 composés proposés. Cela représente deux synthèses réussies par jour.

Dans un laboratoire classique, dirigé par des humains, il faut beaucoup plus de temps pour fabriquer des matériaux. « Si vous n’avez pas de chance, cela peut prendre des mois, voire des années », a déclaré Kristin Persson lors d’une conférence de presse. La plupart des étudiants abandonnent après quelques semaines, a-t-elle ajouté. « Mais l’A-Lab n’a pas peur d’échouer. Il continue d’essayer et d’essayer. »

Les chercheurs de DeepMind et du Berkeley Lab affirment que ces nouveaux outils d’IA peuvent contribuer à accélérer l’innovation matérielle dans les domaines de l’énergie, de l’informatique et dans bien d’autres secteurs.

« Le matériel, en particulier lorsqu’il s’agit d’énergie propre, a besoin d’innovation si nous voulons résoudre la crise climatique », déclare Kristin Persson. « Il s’agit d’un aspect de l’accélération de cette innovation.« 

Chris Bartel, qui n’a pas participé à la recherche, estime que ces matériaux seront des candidats prometteurs pour les technologies couvrant les batteries, les puces électroniques, la céramique et l’électronique.

Les conducteurs des batteries lithium-ion constituent l’un des cas d’utilisation les plus prometteurs. Les conducteurs jouent un rôle important dans les batteries en facilitant la circulation du courant électrique entre les différents composants. DeepMind indique que GNoME a identifié 528 conducteurs lithium-ion prometteurs parmi d’autres découvertes, dont certaines pourraient contribuer à rendre les batteries plus efficaces.

Cependant, même après la découverte de nouveaux matériaux, il faut généralement des décennies aux industries pour les amener au stade commercial. « Si nous pouvons réduire ce délai à cinq ans, ce sera une grande amélioration », conclut Dogus Cubuk.

https://www.technologyreview.com/2023/11/29/1084061/deepmind-ai-tool-for-new-materials-discovery/

La version 5.0 de la plateforme de Vast Data maintenant disponible

Vast Data, annonce le lancement de sa dernière version logicielle 5.0 étendant les capacités de la Vast Data Platform avec AWS et permettant des économies de coûts sur le cloud allant jusqu’à 80%. La nouvelle version de la plateforme Vast Data ajoute de nouveaux outils de détection d’événements basés sur l’IA, de surveillance en temps réel et de provisionnement simple pour les déploiements dans le cloud hybride AWS.

Les clients AWS peuvent aujourd’hui rationaliser et accélérer leurs flux de travail d’IA et optimiser les déploiements de cloud hybride dans plusieurs régions AWS via un plan de contrôle unique. Avec Vast Data Platform, les organisations bénéficient de capacités de gestion des données d’entreprise et d’efficacité d’infrastructure pour gérer facilement les fichiers, les objets et les tables, quel que soit l’endroit où se produit le calcul. En outre, les organisations cloud-natives peuvent désormais travailler avec Vast dans le cloud pour accéder aux capacités de transformation de sa plateforme de données.

Avec la nouvelle version de la Vast Data Platform, les entreprises peuvent désormais consolider l’ensemble de leur gestion de données structurées et non structurées au sein d’une plateforme de données unifiée qui peut être déployée sur des clouds privés et dans toutes les régions AWS.

En unifiant un environnement de gestion de données multimodales, les entreprises peuvent éviter d’encourir des coûts d’infrastructure excessifs en éliminant la dispersion des données entre les protocoles et en tirant parti de la réduction des données basée sur la similarité de Vast, réduisant davantage le coût de l’infrastructure de données.

« La Vast Data Platform est le moyen le plus simple, le plus rapide, le plus efficace et le plus sûr pour les clients d’obtenir des connaissances alimentées par l’IA à partir de toutes leurs données, à travers les clouds privés et publics « , déclare Jeff Denworth, cofondateur de Vast Data. « Aujourd’hui, nous permettons aux clients de déployer rapidement Vast à travers les régions AWS et d’établir des relations inter-clusters pour la disponibilité des données, ce qui rend d’autant plus facile pour les organisations cloud-natives de tirer parti de la Vast Data Platform. » 

La mise à jour logicielle 5.0 annoncée par Vast Data comprend les nouvelles capacités et améliorations suivantes :

Des espaces de noms multi-protocol sur AWS : Vast offre la première plateforme de données qui combine plusieurs protocoles (SMB, NFS, S3 et tables DataBase) en un seul espace de noms, permettant aux utilisateurs de lire et d’écrire des données à partir de n’importe quel protocole et éliminant les silos de données et les copies inutiles causées par des systèmes de données indépendants.

Un gestionnaire de clusters multiples pour les instances AWS : Les entreprises peuvent désormais gérer et déployer des clusters Vast sur des clouds privés et sur AWS, rationalisant ainsi les flux de travail de cloud bursting et la disponibilité multirégionale. Cette interface intuitive simplifie la création, la gestion et la connexion entre les clusters Vast afin que les clients puissent accéder de manière transparente aux données pour les workflows d’IA dans le monde entier. 

Une détection intelligente des anomalies : Grâce à l’apprentissage automatique, chaque cluster Vast est désormais en mesure de signaler les événements utilisateur et les comportements de données anormaux. Les anomalies sont ensuite signalées aux administrateurs via le service d’appel à domicile Vast Data Uplink. Ce nouveau service permet aux clients de détecter les attaques de ransomware, les appels d’API anormaux, ainsi que d’autres modèles d’accès aux données inhabituels dans les clusters Vast, qu’ils soient sur site ou dans le cloud.

Une analyse des logs d’audit en temps réel : La plateforme de données Vast permet désormais aux logs d’audit d’être directement intégrés dans la base de données Vast et d’être interrogés à partir de celle-ci, ce qui facilite l’enregistrement des activités de l’utilisateur et de l’administrateur. Cette nouvelle offre permet aux équipes de sécurité d’avoir un aperçu en temps réel des incidents sans avoir recours à des systèmes externes de gestion des incidents et des événements de sécurité (SEIM).

Une nouvelle accélération pour Vast DataBase : Vast DataBase est le premier table store au monde conçu pour les services de bases de données transactionnelles et analytiques qui étendent les avantages d’une architecture en temps réel optimisée pour le flash jusqu’à l’archive. La version 5.0 supporte le lancement de nouveaux outils de tri de base de données qui permettent au système de réduire considérablement les temps d’interrogation des tables.

La version 5.0 de la Vast Data Platform sera disponible en décembre 2023.

https://vastdata.com/

Une ceinture intelligente avec retour haptique peut remplacer les cannes blanches pour les malvoyants

Pour ceux qui n’ont pas de déficience visuelle ou qui ne connaissent pas quelqu’un proche d’eux qui souffre de cette maladie, le simple fait de marcher dans la rue est quelque chose que nous tenons probablement pour acquis. Être conscient que tout le monde n’aura pas ce privilège est quelque chose que nous devrions nous rappeler de temps en temps. Certaines marques et concepteurs de produits s’efforcent constamment de développer des gadgets et des outils qui peuvent aider ceux qui ont besoin d’aide dans leur vie de tous les jours.

Concepteur : AI Guided

GUIDi est un concept d’appareil capable de remplacer la canne blanche que de nombreuses personnes malvoyantes utilisent pour se frayer un chemin dans les rues animées. Il s’agit d’un appareil que l’utilisateur porte à la taille et comprend des modules de caméra et de microprocesseur, ainsi que des unités de retour haptique qui l’assisteront pendant sa marche.

Il y a deux caméras de 8 mégapixels orientées vers l’avant et qui analyseront l’environnement pendant qu’ils marchent. Les images capturées seront analysées par un logiciel basé sur l’IA qui sera capable d’identifier des éléments tels que des arbres, des poubelles, des panneaux de signalisation et d’autres éléments auxquels l’utilisateur peut être confronté dans la rue ou sur le trottoir.

Les unités de retour haptique vibreront pour alerter l’utilisateur qu’il peut y avoir un obstacle dans sa direction. Il sera même capable de détecter des éléments tels que des branches, des fils et d’autres objets en surplomb qu’une canne ordinaire pourrait manquer puisqu’elle est essentiellement au sol.

L’appareil peut également être connecté à une application sur leur smartphone via la connectivité Bluetooth où ils peuvent choisir un emplacement spécifique et seront guidés par GUIDi en conséquence. La durée de vie de la batterie est d’environ 8 à 10 heures avec une seule charge.

Du point de vue du design, il s’agit d’un appareil sans fioritures que vous pouvez porter à la taille et qui ne devrait pas être aussi gênant ou inconfortable. Les deux unités de retour haptique de chaque côté devraient suffire à donner à l’utilisateur des signaux sur d’éventuels obstacles mais aussi à ne pas émettre de vibrations soudaines qui pourraient surprendre l’utilisateur. Le GUIDi n’est pas encore en production mais ceux qui sont intéressés peuvent essayer de rejoindre l’essai gratuit proposé par la société.

https://www.ai-guided.com/product

La nouvelle neurotechnologie évite l’électricité pour les ultrasons 

Des entreprises s’associent pour utiliser la technologie des ultrasons sur puce pour développer un BCI, l’échographie peut être utilisée à la fois pour stimuler et enregistrer le cerveau.

L’année 2023 a été riche en développements dans le domaine de la technologie des interfaces cerveau-ordinateur (BCI) : des appareils capables de décoder les signaux cérébraux et de les utiliser pour contrôler un appareil externe, ou d’utiliser un appareil pour modifier les signaux cérébraux. Les développeurs de BCI , Neuralink , Paradromics et Synchron , ont tous franchi des étapes importantes dans le processus d’essai clinique, chacun rapprochant un peu plus un BCI entièrement implantable de la réalité clinique aux États-Unis. Ces entreprises développent des BCI qui interagissent électriquement avec le cerveau, mais une collaboration de recherche récemment annoncée développe un BCI qui utilise un médium radicalement différent : les ultrasons .

En octobre, les sociétés Forest Neurotech et Butterfly Network ont ​​annoncé un effort de recherche conjoint de 20 millions de dollars pour poursuivre le développement d’un BCI basé sur les ultrasons. Forest Neurotech accordera une licence à la technologie compacte d’échographie sur puce de Butterfly Network pour développer un appareil BCI à ultrasons mini-invasif destiné à être utilisé dans des contextes universitaires et de recherche.

La plupart des systèmes BCI mesurent l’activité cérébrale en lisant des signaux électriques, et certains stimulent également électriquement le cerveau. Le dispositif proposé par Forest utilisera plutôt des ondes sonores à haute fréquence pour interagir avec le cerveau. 

Les principes scientifiques qui guident cette approche sont inhabituels mais simples : les ondes ultrasonores focalisées directes (FUS : Direct focused ultrasound) peuvent modifier les potentiels d’action des neurones, c’est-à-dire les courants ioniques que les cellules cérébrales utilisent pour communiquer entre elles. L’échographie peut également être utilisée pour estimer l’activité neuronale dans les régions du cerveau en mesurant les changements locaux du flux sanguin via l’effet Doppler ; cette technique est connue sous le nom d’imagerie échographique fonctionnelle (fUSI : functional ultrasound imaging).

William Biederman , directeur technique de Forest Neurotech, affirme que la technologie de Butterfly permettra à son équipe de construire un BCI qui, une fois implanté dans le crâne de l’utilisateur, utilisera les ultrasons pour stimuler et enregistrer le cerveau « avec une précision submillimétrique ».

Pourquoi utiliser l’échographie dans un BCI ?

L’échographie présente certains avantages par rapport aux autres techniques de stimulation neuronale et d’imagerie. Pour la stimulation, les ondes ultrasonores focalisées peuvent cibler de manière flexible des régions spécifiques du cerveau depuis l’extérieur du crâne. En revanche, les techniques de stimulation électrique sont plus limitées dans l’espace car l’électricité ne voyage pas très loin à travers les tissus cérébraux.

La stimulation électrique des régions profondes du cerveau nécessite donc des procédures chirurgicales invasives qui placent des électrodes à proximité des sites concernés. L’enregistrement électrique du cerveau nécessite soit des implants profonds, soit des électrodes sur le cuir chevelu qui ne peuvent enregistrer l’activité que des régions cérébrales proches de la surface. 

L’enregistrement d’une activité neuronale profonde par échographie ne peut pas être effectué à travers le crâne, mais cela peut être réalisé en retirant un morceau de crâne et en posant l’appareil sur la surface du cerveau.

Le matériel d’échographie de Butterfly place les capacités de génération audio, de pilotage et d’enregistrement des systèmes d’échographie cliniques plus grands sur un seul appareil de la taille d’une puce. Forest prévoit d’utiliser ces puces à ultrasons pour stimuler les régions du cerveau avec des ondes ultrasonores dirigées et focalisées, ainsi que pour mesurer l’activité neuronale avec fUSI.

La technologie d’échographie sur puce de Butterfly Network sera utilisée dans une nouvelle interface cerveau-ordinateur.

La technique fUSI estime les changements dans l’activité neuronale en mesurant les changements dans le flux sanguin. Les neurones, comme toutes les cellules, ont besoin de sang pour fonctionner. L’augmentation de l’activité neuronale nécessite une augmentation du flux sanguin, que les techniques fUSI mesurent en projetant des ultrasons sur une région cérébrale d’intérêt et en enregistrant les ondes qui rebondissent. Lorsque le son rebondit sur une masse de sang qui coule, les ondes sonores qui en reviennent se tortillent à une fréquence différente de celles émises. fUSI utilise ce phénomène de décalage Doppler pour estimer les changements dans le flux sanguin et, par procuration, le bavardage électrochimique des neurones.

« Utiliser le flux sanguin pour imager l’activité neuronale avec des ultrasons fonctionnels fonctionne très bien », déclare Mikhail Shapiro , conseiller de Forest Neurotech et professeur au California Institute of Technology. « Cela fonctionne bien mieux que ce à quoi on s’attendait lorsque l’idée a été avancée pour la première fois. »

L’échographie peut à la fois enregistrer et contrôler l’activité neuronale. Bien que ce dernier phénomène soit connu depuis au moins les années 1950 , les scientifiques ne savent toujours pas exactement pourquoi le FUS déclenche le feu des neurones. Des expériences récentes dans lesquelles l’énergie ultrasonore était dirigée vers des tissus cérébraux isolés de rongeurs ont montré aux neuroscientifiques que des canaux ioniques calcium particuliers semblent être ouverts par des ondes sonores à haute fréquence, bien que la physique exacte de cette interaction reste encore un mystère.

Pour stimuler et enregistrer avec son BCI, le système de Forest nécessitera l’implantation de plusieurs puces à ultrasons Butterfly dans le crâne d’un utilisateur. Bien que la stimulation par ultrasons soit efficace à travers les os, les techniques d’enregistrement fUSI ne le sont pas. Le son est étouffé lorsqu’il traverse le crâne, et les atténuations sortantes et renvoyées rendent intenable un système d’enregistrement par ultrasons entièrement non invasif. Au lieu de cela, la société prévoit de placer les transducteurs dans le crâne et au ras de la surface de la dure-mère , une membrane protectrice qui recouvre le cerveau.

La collaboration entre Forest et Butterfly fait partie du plus grand projet de Butterfly Network.

Le Programme Butterfly Gardens , qui vise à mettre sa technologie à disposition des équipes du dispositif médical. Forest Neurotech, qui fait partie du groupe à but non lucratif Convergent Research , se concentre sur le développement technologique plutôt que sur la création et la commercialisation d’un dispositif clinique. «Durant la durée de vie de notre organisation de recherche à but non lucratif, nous n’avons pas l’intention de nous soumettre à la FDA», déclare Biederman. «Nous essayons de stimuler les découvertes scientifiques fondamentales et les utilisations de ce type de technologie.» Une fois que la technologie sera plus développée, la société prévoit de la mettre à la disposition d’autres organismes de recherche du monde universitaire et de l’industrie pour poursuivre le développement de produits et scientifiques.

https://spectrum.ieee.org/bci-ultrasound

Cet appareil photo Leica arrête les contrefaçons au moment de l’obturation

Le premier appareil photo doté d’un système d’identification du contenu intégré vérifie l’authenticité des photos

Cette photo est-elle réelle ? Il existe une nouvelle façon de répondre à cette question. Leica M11-P, annoncé fin octobre, est le premier appareil photo au monde à prendre en charge les références de contenu, une technologie de cryptage qui protège l’authenticité des photos prises par l’appareil. Le système de métadonnées peut suivre une photo depuis l’obturation jusqu’à la publication, en enregistrant toutes les modifications apportées en cours de route.

« Ces dernières années, il est devenu plus facile de manipuler des images numériquement. Les photographes peuvent le faire, et lorsque les photos sont publiées sur le web, d’autres personnes peuvent le faire », déclare le photographe primé David Butow. « Je pense que cela met en péril la force de la photographie, le sentiment qu’elle est une représentation fidèle de ce que quelqu’un a vu.

Résoudre le problème de l’authenticité de la photographie

En 2019, Adobe, le New York Times et Twitter se sont associés pour résoudre ce problème en fondant la Content Authority Initiative (CAI) en novembre. La CAI, qui compte aujourd’hui plus de 200 partenaires, s’est donné pour tâche difficile de trouver une « solution holistique à long terme » pour vérifier l’authenticité des photos. En 2021, elle s’est associée à une autre initiative appelée Project Origin pour former la Coalition for Content Provenance and Authenticity (C2PA).

Le M11-P de Leica est la première concrétisation matérielle de cette solution. L’appareil photo est doté d’un bouton permettant d’activer les informations d’identification du contenu, qui sont basées sur la norme technique ouverte de la C2PA. Le M11-P intègre ensuite des métadonnées d’identification – telles que l’appareil photo, l’objectif, la date, l’heure et le lieu – dans un « manifeste » C2PA crypté.

Le M11-P signe numériquement le manifeste à l’aide d’une puce sécurisée dont la clé privée est stockée. Le manifeste est joint à l’image et ne peut être modifié que par un logiciel compatible C2PA qui, à son tour, laisse sa propre signature dans le manifeste.

Une fois publiée, l’image peut afficher une petite icône interactive qui révèle des détails sur la photo, notamment l’appareil utilisé pour la prendre, les programmes utilisés pour la modifier et si l’image est entièrement ou partiellement générée par l’IA.

Une photographie de l’horizon de la ville de New York. Cette photographie porte en filigrane un contenu unique d’informations d’identification. Le filigrane est une petite icône contenant le logo avec les informations légales. Lorsqu’on clique dessus, les métadonnées de la photo s’affichent.

Les certificats de contenu n’en sont qu’à leurs débuts, et le soutien est donc limité. Le logiciel d’Adobe est la seule suite d’édition d’images populaire à prendre en charge la norme jusqu’à présent. La présentation des données pose également problème : L’icône interactive n’est pas visible à moins qu’une application ou un programme ne soit programmé pour la présenter.

« La façon dont cette technologie est intégrée dans Photoshop et Lightroom, que j’utilise, est encore un peu bêta « , déclare David Butow, qui a utilisé le Leica M11-P pendant plusieurs semaines avant sa sortie. Selon lui, ces premiers problèmes sont compensés par une victoire essentielle : Le standard est facile à utiliser pour les photographes. « Vous photographiez normalement, n’est-ce pas ? Il n’y a rien que vous voyez, rien dont vous êtes conscient lorsque vous prenez la photo. »

Un appareil photo Leica M11-P posé sur une table. L’appareil et la table sont tous deux de couleur noir mat. L’appareil photo est relié à un smartphone, qui est utilisé pour prévisualiser une photo prise par l’appareil photo. Le Leica M11-P est vendu au prix fort de 9 195 dollars.

Le Leica M11-P n’a pas fait les gros titres uniquement parce qu’il prend en charge les références en matière de contenu. Il est arrivé avec un prix intimidant de 9 195 dollars. C’est un prix élevé pour l’authenticité, mais Leica affirme que le coût de l’appareil a plus à voir avec l’héritage de Leica. « Si vous regardez les prix de nos appareils M, il n’y a absolument aucun coût supplémentaire pour la fonction d’authentification du contenu du M11-P », déclare Kiran Karnani, vice-président du marketing de Leica.

Et le M11-P n’est que la partie émergée de l’iceberg. Canon et Nikon ont déjà des prototypes d’appareils photo dotés d’une fonction d’authentification du contenu. Les smartphones seront également de la partie. Truepic, une startup qui crée une « infrastructure d’authenticité », s’est associée à Qualcomm pour que les puces Snapdragon 8 Gen 3 de Qualcomm prennent en charge l’authentification des contenus ; ces puces équiperont les smartphones Android phares l’année prochaine.

Une vérification plus rapide pour des rapports plus précis

Aucun organe de presse n’exige actuellement que les photographes utilisent des références de contenu, mais l’influence de la norme C2PA commence à se faire sentir. Kiran Karnani souligne que le New York Times et la BBC sont membres de la CAI (tout comme le Wall Street Journal, le Washington Post, l’AP, Reuters et Gannett). « L’adoption est certainement un objectif », assure Kiran Karnani.

L’explosion survenue à l’extérieur d’un hôpital de Gaza le 17 octobre 2023 a montré à quel point les références de contenu pouvaient faire la différence. Les premiers rapports ont attribué la responsabilité de l’explosion à une frappe aérienne israélienne. Israël a contesté ces informations sur les médias sociaux et a partagé une vidéo qui prétendait montrer que l’explosion avait été causée par une roquette palestinienne ratée, mais un journaliste du New York Times a remarqué qu’elle portait un horodatage incorrect, ce qui a jeté un doute sur son authenticité et renforcé les soupçons quant à l’implication d’Israël.

« Il est très important de pouvoir remonter à la source et de voir à quoi ressemble l’image originale. – David Butow, photographe

D’autres images ont fini par jeter le doute sur les premiers titres. De nouvelles photos et vidéos vérifiables ont conduit à un rapport d’AP News selon lequel « une roquette lancée de Gaza qui s’est arrêtée en plein vol » était la cause probable de l’explosion de l’hôpital.

D’autres publications, dont le New York Times et le Washington Post, ont publié des articles indépendants basés sur de nouvelles preuves photographiques et vidéo qui aboutissaient à des conclusions mitigées sur les origines de l’explosion (qui restent contestées). Mais la vérification des photos et des vidéos, qui provenaient de diverses sources professionnelles et amateurs, a pris des jours. À ce moment-là, de nombreuses personnes s’étaient déjà fait une opinion sur les responsables.

« Lorsque ces organisations travaillent avec des [photographes] qu’elles ne connaissent pas forcément très bien, il est très important de pouvoir remonter à la source et de savoir à quoi ressemble l’image originale », explique David Butow. L’authentification du contenu est, selon lui, « un outil puissant qui leur permettra de le faire ».

https://spectrum.ieee.org/leica-camera-content-credentials

https://leicacamerausa.com/leica-m11-p-in-black.html

https://leica-camera.com/en-US/photography/content-credentials

https://c2pa.org/specifications/specifications/1.3/index.html

https://truepic.com/future-of-transparency-in-gen-ai-starts-with-smartphones/

Un revêtement textile antimicrobien permet de fabriquer des rideaux d’hôpital anti-superbactéries

Image au microscope électronique à balayage du nouveau revêtement antimicrobien sur un échantillon de tissu

Les hôpitaux sont censés soigner les gens, mais il existe un risque croissant que les patients contractent un ou deux superbactéries pendant leur séjour. Les scientifiques ont désormais mis au point des revêtements antimicrobiens longue durée pour les textiles, qui pourraient permettre à des éléments tels que les rideaux d’hôpitaux de tuer rapidement les virus et les bactéries.

Malgré tous les efforts du personnel médical, les hôpitaux peuvent être des foyers d’échange d’agents pathogènes. Et si les surfaces lisses comme les poignées de porte ou les balustrades peuvent être assez faciles à désinfecter, il est plus difficile de nettoyer des matériaux comme les textiles. Pour cette nouvelle étude, des scientifiques de l’Empa, de BASF, du laboratoire de Spiez et de l’université technique de Berlin ont développé un nouveau traitement pour rendre les tissus antimicrobiens.

L’équipe a concocté une nouvelle formule de désinfectant contenant du chlorure de benzalkonium, puis l’a appliquée sur des échantillons de tissus en les trempant dans une solution d’apprêt, puis en les faisant passer à travers des rouleaux d’application. La technique a été soigneusement optimisée afin que la concentration, le temps d’exposition, la pression et le séchage appropriés soient appliqués pour garantir que le revêtement adhère parfaitement au tissu.

Pour tester le pouvoir antimicrobien du revêtement, l’équipe a ensuite incubé des bactéries hospitalières courantes comme le staphylocoque et le pseudomonas avec les échantillons. Après seulement 10 minutes, les bactéries étaient considérablement réduites, voire tuées. Le revêtement a également bien résisté aux virus, tuant 99 % d’entre eux.

C’est un bon début, mais cela ne sert à rien d’être efficace pour tuer les bactéries et les virus si l’effet est de courte durée. L’équipe a donc également mené des expériences pour étudier la durabilité du revêtement en tissu. Les échantillons conservés pendant six mois se sont révélés avoir le même profil antibactérien que les échantillons frais, et des tests de vieillissement artificiel ont suggéré que le revêtement resterait stable sur le tissu jusqu’à cinq ans.

Cependant, le revêtement s’efface facilement et ne convient donc pas aux applications telles que les uniformes du personnel, les blouses de patients ou la literie. Mais l’équipe affirme que le revêtement pourrait être utile pour des éléments tels que des rideaux autour des lits ou des filtres à air. Combiné à d’autres armes comme des lampes ou des matériaux antimicrobiens, le revêtement pourrait à terme contribuer à freiner la propagation des superbactéries dans les hôpitaux.

https://www.nature.com/articles/s41598-023-47707-3

https://www.empa.ch/web/s604/spital-vorhaenge-gegen-viren-und-bakterien

La plateforme de transcription d’AWS est désormais alimentée par l’IA générative

Il reconnaît 100 langues parlées grâce à l’IA.

AWS a ajouté de nouvelles langues à son produit Amazon Transcribe, offrant une transcription basée sur un modèle de base vocale pour 100 langues et une multitude de nouvelles fonctionnalités d’IA pour les clients.

Annoncé lors de l’événement AWS re: Invent , Amazon Transcribe peut désormais reconnaître davantage de langues parlées et lancer une transcription d’appel. Les clients AWS utilisent Transcribe pour ajouter des fonctionnalités de synthèse vocale à leurs applications sur le cloud AWS.

La société a déclaré dans un article de blog que Transcribe s’est entraîné sur « des millions d’heures de données audio non étiquetées provenant de plus de 100 langues » et utilise des algorithmes auto-supervisés pour apprendre les modèles de parole humaine dans différentes langues et accents. AWS a déclaré avoir veillé à ce que certaines langues ne soient pas surreprésentées dans les données de formation afin de garantir que les langues les moins utilisées puissent être aussi précises que les langues plus fréquemment parlées.

Fin 2023, Amazon Transcribe prenait en charge 39 langues.

Amazon Transcribe améliore la précision de 20 à 50 % par rapport à sa version précédente dans de nombreuses langues, selon AWS. Il propose également une ponctuation automatique, un vocabulaire personnalisé, une identification automatique de la langue et des filtres de vocabulaire personnalisés. Il peut reconnaître la parole dans les formats audio et vidéo et dans les environnements bruyants.

Avec une meilleure reconnaissance linguistique, AWS a déclaré que les progrès d’Amazon Transcribe se traduisent également par une meilleure précision avec sa plate-forme Call Analytics, que ses clients de centres de contact utilisent souvent. Amazon Transcribe Call Analytics, désormais également alimenté par des modèles d’IA génératifs, résume les interactions entre un agent et un client. AWS a déclaré que cela réduisait le travail de création de rapports après appel et que les responsables pouvaient lire rapidement les informations sans avoir à parcourir l’intégralité de la transcription.

Bien entendu, AWS n’est pas la seule entreprise à proposer des services de transcription basés sur l’IA. Otter fournit depuis un certain temps des transcriptions d’IA aux consommateurs et aux entreprises et a publié un outil de synthèse en juin. Bien que ce ne soit pas exactement la même chose, Meta a annoncé qu’elle travaillait sur un modèle de traduction génératif alimenté par l’IA qui reconnaît près de 100 langues parlées.

AWS a également annoncé des fonctionnalités supplémentaires pour son produit Amazon Personalized, qui permettent aux clients de proposer des produits ou de montrer des recommandations aux clients, comme la manière dont les services de streaming peuvent suggérer de nouvelles émissions en fonction de l’activité précédente. AWS a ajouté la génération de contenu, qui écrira des titres ou des lignes d’objet d’e-mail pour connecter thématiquement les listes de recommandations.

https://www.theverge.com/2023/11/27/23978822/aws-transcription-amazon-generative-ai

https://aws.amazon.com/blogs/machine-learning/aws-ai-services-enhanced-with-fm-powered-capabilities/

https://aws.amazon.com/blogs/machine-learning/amazon-transcribe-announces-a-new-speech-foundation-model-powered-asr-system-that-expands-support-to-over-100-languages/

Une application compatible avec la vision par ordinateur aide Home Depot à améliorer la disponibilité en rayon

Home Depot présente un avantage majeur par rapport aux détaillants concurrents qui conservent une grande partie de leurs stocks dans des arrière-boutiques, où ils sont invisibles pour les clients et les collaborateurs. Grâce à ses hauts plafonds, le détaillant peut stocker de nombreux articles sur des étagères bien au-dessus de la surface de vente, prêts à être démontés et placés sur des étagères accessibles.

Le problème, bien sûr, est que le stockage des articles si haut signifie qu’il est presque impossible de lire leurs étiquettes, codes-barres ou codes QR, ce qui rend difficile de savoir non seulement ce qu’il y a là-haut, mais aussi s’il doit être retiré et quand . Cela peut avoir un impact négatif sur la disponibilité en rayon et créer de la frustration tant pour les collaborateurs que pour les clients.

Pour résoudre ce problème précis, le détaillant a doté ses collaborateurs en magasin, qui possèdent déjà des appareils portables hdPhones , d’une mise à niveau de vision par ordinateur basée sur le cloud vers l’ application Sidekick . Les appareils « sont équipés de caméras de haute qualité, et nous demandons à nos collaborateurs de prendre des photos au-dessus de leur tête à une cadence appropriée », tout au long de la journée, a déclaré Hari Ramamurthy, chercheur en technologie chez Home Depot, dans une interview avec Retail Touch Points.

Home Depot est à la pointe de ce type d’utilisation de la technologie : l’ enquête de référence sur les opérations des magasins Retail TouchPoints 2023 a révélé que seulement 28 % des collaborateurs des détaillants interrogés utilisent des appareils mobiles pour auditer le marchandisage visuel et les présentoirs.

Supprimer les tensions liées à la localisation des marchandises

L’application Sidekick utilise la vision par ordinateur et l’apprentissage automatique pour numériser ces informations visuelles et les rendre accessibles aux collaborateurs, ce qui permet au détaillant de « tirer des informations de ces images sur les produits disponibles dans les frais généraux, que nous utilisons pour éliminer les frictions impliquées dans la localisation des marchandises », a déclaré Hari Ramamurthy. Il a ajouté que tous les appareils des collaborateurs de Home Depot seront équipés de cette application d’ici le Black Friday.

La nouvelle fonctionnalité « améliore non seulement la disponibilité en rayon ; cela permet également aux collaborateurs de passer plus de temps avec les clients », a déclaré Ramamurthy. De plus, « il s’agit d’une solution de répartition des tâches en magasin qui garantit que la bonne tâche est présentée au bon associé au bon moment ».

Hari Ramamurthy a également noté que la nouvelle solution offre « de multiples opportunités dans différents domaines des opérations des magasins, y compris la protection des actifs » et la prévention des pertes, ainsi que le soutien aux clients en ligne en rationalisant l’exécution des commandes en ligne en magasin.

Home Depot a développé ce dernier ajout à l’application Sidekick à l’aide d’une solution open source et s’est appuyé sur les commentaires des clients et des collaborateurs pour affiner davantage ses capacités. « Nous expérimentons continuellement les étapes à suivre pour améliorer l’application, en apprenant quels aspects de l’expérience fonctionnent bien et ne fonctionnent pas bien », a déclaré Ramamurthy. « Nous avons écouté les commentaires concernant les images elles-mêmes et la bonne cadence dans le cadre d’un processus itératif. »

Hari Ramamurthy a également exprimé « sa confiance dans le fait que la disponibilité en rayon s’améliorera et, plus important encore, nous voulons [offrir] une expérience fluide aux clients ».

https://www.retailtouchpoints.com/features/retail-success-stories/computer-vision-enabled-app-helps-home-depot-improve-on-shelf-availability

https://www.retailtouchpoints.com/resources/store-operations-benchmark-survey-2023

Ikea lance un trio de capteurs pour maison intelligente abordables

Les capteurs coûteront moins de 10 € chacun et sont conçus pour détecter l’ouverture des portes et des fenêtres, les mouvements à l’intérieur et à l’extérieur et les fuites d’eau.

Les efforts d’Ikea ​​pour démocratiser la maison intelligente se poursuivent avec l’introduction de trois nouveaux capteurs Zigbee qui ne feront pas sauter la banque. Il y a Parasoll, le capteur de portes et fenêtres ; Vallhorn, le capteur de mouvement ; et Badring, le capteur de fuite d’eau. Ils coûteront tous moins de 10 € lorsqu’ils seront mis en vente dans le monde entier au premier semestre de l’année prochaine.

Parasoll est un capteur de fenêtre et de porte typique qui peut être monté discrètement pour déclencher un automatisme lorsqu’un événement d’ouverture/fermeture est détecté. Il peut également être associé directement à une ampoule Ikea dès la sortie de la boîte sans avoir besoin d’acheter et de configurer un hub intelligent Ikea Home. Son prix est de 9,99 € en Europe.

Paire de capteurs de porte et fenêtre Parasoll.

Le détecteur de mouvement Vallhorn peut être utilisé aussi bien à l’intérieur qu’à l’extérieur (avec protection IP44 contre les éclaboussures contre la pluie) pour activer des lumières ou d’autres automatismes lorsqu’un mouvement est détecté. Il est alimenté par trois piles AAA et peut être couplé pour contrôler directement jusqu’à 10 ampoules intelligentes Ikea dès la sortie de la boîte. Il ne coûte que 7,99 € et peut détecter une plus grande partie de la pièce que le capteur de mouvement existant d’Ikea ​​à 12,99 €, qui est plus petit mais utilisable uniquement à l’intérieur et nécessite le remplacement de sa pile bouton plus fréquemment.

Le capteur Badring pourrait vous faire économiser de l’argent en détectant tôt une fuite d’eau.

Le capteur d’eau Badring comprend une sirène intégrée (60 dBA à 1 m) qui peut vous alerter lorsqu’il détecte une fuite. Il peut également déclencher une notification mobile dans l’application intelligente Ikea Home pour les maisons sur lesquelles un hub Ikea Dirigera est installé. Des capteurs comme ceux-ci peuvent faire économiser beaucoup d’argent aux propriétaires avant qu’une fuite d’eau ne puisse créer de réels dégâts. Il coûtera 9,99 €.

Parmi les trois, les capteurs Parasoll et Badring ne sont pas compatibles avec les anciennes passerelles intelligentes Trådfri Home d’Ikea. Tous prennent bien sûr en charge le nouveau hub Dirigera, qui intègre pleinement les capteurs dans la gamme florissante de produits pour la maison intelligente et l’application Home Smart d’Ikea. Le hub permet également aux appareils Ikea d’interagir avec les écosystèmes de maison intelligente de Google, Amazon et Apple, à la maison ou à l’extérieur.

Bien que le support de Matter ne soit disponible que « dans quelques mois » il y a plus d’un an, l’entreprise ne le prend toujours pas en charge. Ikea prévoit d’activer Matter en allumant la radio Thread à l’intérieur du hub Dirigera pour relier les appareils basés sur Zigbee existants d’Ikea ​​à la norme de maison intelligente de nouvelle génération.

Dans une déclaration, Jonas Söderqvist, responsable du secteur des produits numériques chez Ikea, a déclaré que la société avait « décidé de retarder cette fonctionnalité » et fournirait une mise à jour « quand le moment sera venu ».

Le retard persistant est compréhensible étant donné que les produits d’Ikea ​​s’intègrent déjà bien avec d’autres plates-formes, et la société s’efforce de garder les choses aussi simples que possible pour quiconque se lance dans la maison intelligente sur un coup de tête tout en achetant une nouvelle bibliothèque. Et si l’on considère les obstacles nécessaires pour que tout fonctionne  sur les réseaux Matter pendant cette période de transition, le retard d’Ikea est plus que justifié.

https://www.ikea.com/global/en/newsroom/innovation/parasoll-badring-vallhorn-smart-sensors-231128/

Cato Networks positionné comme leader en matière de SASE

Cato Networks, le leader en matière de SASE, annonce sa reconnaissance en tant que leader dans lerapport Frost Radar : Global SASE, 2023 par le cabinet Frost & Sullivan ainsi que dans le rapport Market Radar : SASE 2023 par le groupe Omdia. 

« Une fois de plus, Cato Networks et notre plateforme SASE native dans le cloud ont été reconnus par l’industrie pour leur innovation et leur leadership « , déclare Shlomo Kramer, fondateur et CEO de Cato Networks. « Ces distinctions de Frost & Sullivan et Omdia font écho à ce que nous entendons constamment de la part des milliers de sociétés qui sécurisent leur avenir avec Cato chaque jour. »

Les distinctions de Frost & Sullivan et d’Omdia soulignent la qualité constante de Cato Networks en matière de croissance et d’innovation et interviennent après que la plateforme Cato SASE Cloud a été reconnue par d’autres cabinets d’études de premier plan en 2023.

Frost & Sullivan : Cato s’engage dans l’innovation et l’excellence

Le rapport Frost Radar for SASE évalue les entreprises de SASE en fonction de leur innovation continue et de leur capacité à traduire les innovations en une croissance cohérente. Frost & Sullivan reconnaît Cato Networks comme un leader de la croissance et de l’innovation en matière de SASE, plaçant Cato en tête de l’indice d’innovation Frost Radar. Frost & Sullivan a également cité Cato Networks comme un fournisseur unique de SASE qui excelle dans les deux domaines. 

« Cato Networks est en tête de l’indice d’innovation Frost Radar et en tête de l’indice de croissance Frost Radar. L’engagement de l’entreprise en faveur d’une excellence durable sur le marché des SASE est évident grâce à sa plateforme SASE convergente et orientée vers le cloud. La réseau privé mondial de Cato Networks, la couverture étendue des PoPs SASE à travers les régions et l’architecture à passage unique alimentée par le Cato Single Pass Cloud Engine démontrent son leadership en matière d’innovation pour fournir aux entreprises des services de sécurité et de réseau globaux, convergents et orientés vers le cloud « , déclare Vivien Pua, analyste industriel senior chez Frost & Sullivan.

Omdia : Cato est un leader dont le modèle d’entreprise s’aligne fortement sur le concept de SASE

L’étude Omdia Market Radar : SASE, évalue les offres SASE de plus de 30 fournisseurs de technologie. Cato Networks est apparu comme un leader distinct du marché dans l’analyse d’Omdia, en tête dans plusieurs catégories, notamment la sécurité (SWG, ZTA et CASB), le réseau (architecture et SD-WAN) et la gestion (identité et analytique). L’évaluation d’Omdia soutient les capacités cohérentes et avancées de Cato, le positionnant comme un « leader, avec un fort alignement du modèle d’entreprise sur SASE avec une architecture robuste au sein de ses PoPs et la fourniture de services de réseau et de sécurité de base. »

« Cato Networks a présenté des capacités avancées dans diverses catégories de SASE », déclare Fernando Montenegro, analyste principal cybersécurité, d’Omdia. « Leur approche holistique, combinée à une livraison efficace et à l’accent mis sur l’offre de SASE en tant que véritable service, en fait un concurrent de taille pour les organisations à la recherche d’une offre complète de SASE dans le cloud. » 

https://www.catonetworks.com/