Skip to main content

Auteur/autrice : infohightech

Les robots quadrupèdes pourraient un jour donner du fil à retordre aux chiens d’aveugle

Ce robot Unitree A1, qui contourne les obstacles, peut être dirigé en tirant sur sa laisse.

Si les chiens d’aveugle peuvent être très utiles aux non-voyants, les élever et les dresser est un processus long et coûteux. C’est pourquoi les scientifiques ont récemment commencé à étudier la possibilité de confier cette tâche à des robots quadrupèdes ressemblant à des chiens.

Selon Guide Dogs of America, la reproduction, l’élevage et le dressage d’un seul chien d’aveugle coûtent environ 48 000 dollars. En France, cela coûte 25000 €.

Bien que l’utilisateur final ne paie pas ce prix, il doit couvrir les dépenses habituelles liées à la possession d’un chien. En outre, le chien doit généralement être dressé par le fournisseur pendant au moins cinq à huit mois, après quoi l’utilisateur doit poursuivre le dressage.

En revanche, les robots quadrupèdes peuvent être préprogrammés, ils n’ont besoin ni de nourriture, ni d’eau, ni d’exercice, et ils peuvent être achetés pour un prix aussi bas que 1 500 dollars. C’est avec ces arguments et d’autres à l’esprit que le professeur adjoint Shiqi Zhang et ses collègues de l’université de Binghamton, dans l’État de New York, ont entrepris de déterminer quel type de chien d’aveugle ferait un robot Unitree A1.

Le robot disponible dans le commerce est équipé de capteurs qui lui permettent d’exécuter des fonctions telles que la détection et l’évitement d’obstacles, la planification de trajectoires et la navigation – autant de fonctions qui seraient très utiles pour guider les utilisateurs aveugles.

En collaboration avec les étudiants en informatique David DeFazio et Eisuke Hirota, Shiqi Zhang a conçu et ajouté une interface à laquelle une laisse de chien ordinaire a été attachée. Grâce à un processus d’apprentissage par renforcement, un logiciel personnalisé de contrôle de la locomotion a ensuite été « entraîné » à tourner le robot vers la gauche ou la droite lorsque l’utilisateur tire sur la laisse dans la direction correspondante.

Lors d’une démonstration récente, l’Unitree A1 adapté a été capable de guider une personne le long d’un couloir, et il a immédiatement réagi aux coups de laisse directionnels à une intersection dans ce couloir. C’est un bon début, mais il reste encore beaucoup à faire.

« Notre prochaine étape consistera à ajouter une interface en langage naturel », explique Shiqi Zhang. « Idéalement, je pourrais avoir une conversation avec le robot en fonction de la situation pour obtenir de l’aide. La désobéissance intelligente est également une capacité importante. Par exemple, si je suis malvoyant et que je dis au chien robot de marcher dans la circulation, nous voulons que le robot le comprenne. Dans ce cas, nous ne devrions pas tenir compte de la volonté de l’être humain ».

Bien que les aveugles puissent être en mesure d’acheter ces robots un jour, il est également envisagé que les robots soient disponibles pour une utilisation temporaire dans des endroits à la navigation difficile, tels que les centres commerciaux et les aéroports.

https://www.binghamton.edu/news/story/4565/binghamton-computer-scientists-program-robotic-seeing-eye-dog-to-guide-the-visually-impaired

Google se tourne vers les ultrasons pour surveiller la fréquence cardiaque à l’aide de ses écouteurs à suppression de bruit actifs (ANC)

Des chercheurs de Google ont mis au point un système capable de transformer n’importe quel casque TWS (True Wireless Stereo) ANC en moniteur de fréquence cardiaque par le biais d’une mise à jour logicielle.

Les montres intelligentes capables de surveiller le rythme cardiaque de leur porteur utilisent des impulsions lumineuses pour détecter les variations du volume sanguin. Mais des recherches menées par Google proposent d’utiliser les ultrasons émis par le haut-parleur d’un écouteur pour détecter de minuscules déviations à la surface du conduit auditif.

La méthode mise au point par les chercheurs de Google, de l’université de Princeton et de l’université Rutgers s’appelle l’audiopléthysmographie (APG en anglais). Elle consiste à envoyer des signaux ultrasonores de faible intensité dans le conduit auditif par l’intermédiaire des haut-parleurs des vêtements à réduction active du bruit. Les microphones de rétroaction embarqués sont alors utilisés pour enregistrer l’écho qui rebondit et rechercher les changements minimes causés par le flux sanguin.

Après quelques calculs mathématiques pour plus de clarté, l’équipe a noté des similitudes entre les formes d’ondes PPG (Photoplethysmography ou Photopléthysmographie, comme les oxymètres) produites par les capteurs des smartwatchs et les formes d’ondes APG, avec « une vision améliorée des activités cardiaques grâce à des encoches dicrotiques plus prononcées (c’est-à-dire des formes d’ondes de pression qui fournissent de riches informations sur le système artériel central, telles que la pression artérielle) ».

Graphique montrant le fonctionnement du système d’audiopléthysmographie

Le signal ultrasonore ne peut pas être entendu par le porteur et n’est pas affecté par la musique diffusée par les haut-parleurs ou par une mauvaise étanchéité des oreillettes. Les premiers essais ont révélé que les mouvements du corps pouvaient avoir un impact négatif, mais ce problème a pu être résolu en utilisant plusieurs fréquences.

Lors des essais sur le terrain avec 153 participants, la solution APG s’est avérée très précise pour la détection de la fréquence cardiaque (3,21 % d’erreur médiane pour tous les participants dans tous les scénarios d’activité) et l’enregistrement de la variabilité de la fréquence cardiaque (2,70 % d’erreur médiane dans l’intervalle entre les battements).

L’équipe estime que n’importe quel casque antibruit actif sans fil peut être utilisé comme moniteur de santé intelligent après une « simple mise à jour logicielle ».

Bien qu’il soit tentant de penser qu’un système APG pourrait être une nouvelle fonctionnalité des prochains Pixel Buds, le développement devra passer par quelques étapes réglementaires avant que cela ne se produise, et il faudra donc attendre un certain temps avant de pouvoir essayer le système dans la nature.

https://research.google/pubs/pub52460/

https://blog.research.google/2023/10/audioplethysmography-for-cardiac.html?m=1

Microsoft commence à vendre un outil d’IA pour Office, qui pourrait générer 10 milliards de dollars par an d’ici 2026

Mercredi, Microsoft a commencé à vendre le module complémentaire d’IA, Microsoft 365 Copilot, pour ses abonnements à l’application Office destinés aux entreprises. Les analystes de Piper Sandler estiment que cet outil pourrait générer plus de 10 milliards de dollars de revenus annualisés d’ici 2026. Ce chiffre ne tient pas compte de l’adoption d’outils supplémentaires tels que Purview de Microsoft pour la gestion des données.

Microsoft est prêt à profiter de son prochain cycle de croissance. Mercredi, la société a commencé à vendre le module complémentaire d’intelligence artificielle Microsoft 365 Copilot pour ses abonnements aux applications Office destinées aux entreprises.

La fonction qui apparaît dans Word, Excel et d’autres programmes Office coûtera 30 dollars par personne et par mois. Les analystes de Piper Sandler, Brent Bracelin et Hannah Rudoff, ont écrit dans une note adressée aux clients en début de semaine que cela pourrait représenter plus de 10 milliards de dollars de revenus annualisés d’ici à 2026.

Microsoft vise à tirer le meilleur parti de sa position dominante sur le marché des logiciels de productivité, où Google s’efforce de gagner des parts. Google, quant à lui, vend l’amélioration Duet AI pour les abonnements à ses outils Workspace.

Le modèle de Piper Sandler suppose que 18 % des utilisateurs éligibles utiliseront Copilot. Cela pourrait être agressif, mais « il y aura un élément FOMO (Fear of missing out : la peur de rater quelque chose) », a déclaré Brent Bracelin utilisant l’acronyme pour la peur de manquer. « Si vous êtes en concurrence dans un secteur avec quelqu’un qui a Copilot et que vous ne l’avez pas, vous êtes désavantagé. »

« Les clients nous disent qu’une fois qu’ils ont utilisé Copilot, ils ne peuvent plus s’en passer », a déclaré le PDG de Microsoft, Satya Nadella, aux analystes.

Après avoir dévoilé ses plans pour Copilot en mars, Microsoft a annoncé en septembre qu’elle ciblerait d’abord les plus grandes entreprises. Lors de la conférence téléphonique de la semaine dernière, Satya Nadella a déclaré que 40 % des entreprises du Fortune 100, un classement des entreprises américaines en fonction de leur chiffre d’affaires, utilisaient Copilot dans le cadre d’un programme d’accès anticipé payant sur invitation annoncé en mai, citant nommément cinq clients : Bayer, KPMG, Mayo Clinic, Suncorp et Visa.

L’avant-première a été annoncée en mai, il y a moins de six mois. Par conséquent, il n’y a pas beaucoup de données sur l’impact de Copilot sur les performances.

« Les conversations que nous avons eues, même avec les clients ayant bénéficié d’un accès anticipé, se sont déroulées sur une période trop courte pour nous permettre d’examiner les aspects qualitatifs de l’utilisation des outils », a déclaré Jason Wong, analyste chez Gartner, un cabinet d’études spécialisé dans le secteur des technologies.

Les entreprises ont besoin d’au moins 300 licences pour que leurs employés aient accès à Copilot. Le défi pour Microsoft est d’aller au-delà d’un petit noyau d’utilisateurs finaux et de parvenir à un large déploiement. Cela pourrait prendre du temps.

Selon M. Wong, le Gartner encourage les entreprises à expérimenter l’IA générative, qui peut créer des images et des textes synthétiques avec seulement quelques mots d’entrée humaine.

« Je pense qu’il sera raisonnable d’atteindre 20 % d’ici deux ou trois ans pour des technologies telles que Copilot, car il y aura des adeptes précoces et des adeptes rapides », a-t-il déclaré.

Selon Brent Bracelin, de Piper Sandler, il pourrait être plus facile pour les entreprises de distribuer Copilot aux cadres, pour la plupart très bien rémunérés, dont le temps est précieux. L’outil pourrait les aider à hiérarchiser les messages électroniques et à comprendre rapidement les documents.

Mais les cadres supérieurs pourraient finir par causer des maux de tête à l’assistance technique, a déclaré M. Wong. Il serait peut-être plus sage de donner Copilot d’abord à des employés techniquement compétents qui ont utilisé l’IA générative à des fins personnelles et qui sont familiers avec les défauts tels que la possibilité de débiter des informations inexactes, a déclaré M. Wong. Microsoft reconnaît sur son site web que « les réponses produites par l’IA générative ne sont pas garanties comme étant 100% factuelles ».

Cela n’a pas découragé les utilisateurs de ChatGPT, le chatbot d’OpenAI, soutenu par Microsoft, dont les modèles de langage sont au cœur de Copilot. Après le lancement de ChatGPT en novembre 2022, Microsoft et d’autres grands éditeurs de logiciels se sont empressés d’intégrer des fonctions génératives similaires. Microsoft affirme que les messages-guides et les réponses de Copilot ne sont pas utilisés pour former des modèles de langage et qu’ils respectent les normes de confidentialité de l’entreprise.

Microsoft ne sera pas le seul à bénéficier des nouveaux frais mensuels de Copilot. Lors de la mise en place de l’outil, les entreprises pourraient être amenées à utiliser d’autres services Azure dans le Cloud nuage, tels que Purview pour la gestion des données, a déclaré M. Wong.

https://www.cnbc.com/2023/11/01/microsoft-365-copilot-becomes-generally-available.html

https://www.cnbc.com/2023/09/21/microsoft-365-copilot-software-becomes-available-to-enterprises-nov-1.html

https://learn.microsoft.com/en-us/power-platform/faqs-copilot-data-security-privacy

Kamala Harris annonce la création d’un AI Safety Institute pour protéger les consommateurs américains

L’administration Biden aborde également la question de l’adoption responsable de l’IA dans les applications militaires et internationales.

Quelques jours seulement après que le président Joe Biden a dévoilé un décret radical redéfinissant les responsabilités du gouvernement fédéral en ce qui concerne le développement de l’IA, la vice-présidente Kamala Harris a annoncé mardi, lors du sommet britannique sur la sécurité de l’IA, une demi-douzaine d’autres initiatives d’apprentissage automatique que l’administration entreprend. 

Parmi les faits saillants : la création de l’AI Safety Institute des États-Unis, la première publication d’un projet d’orientation politique sur l’utilisation de l’IA par le gouvernement fédéral et une déclaration sur les applications militaires responsables de la technologie émergente.

« Le président Biden et moi-même pensons que tous les dirigeants du gouvernement, de la société civile et du secteur privé ont le devoir moral, éthique et sociétal de veiller à ce que l’IA soit adoptée et avancée de manière à protéger le public des dommages potentiels et à garantir que tout le monde peut profiter de ses avantages », a déclaré Kamala Harris dans ses remarques préparées.

« Tout comme l’IA a le potentiel de faire un bien profond, elle a également le potentiel de causer de graves dommages, allant des cyberattaques basées sur l’IA à une échelle dépassant tout ce que nous avons vu auparavant jusqu’aux armes biologiques formulées par l’IA qui pourraient mettre en danger la vie de millions de personnes. , » dit-elle. Les menaces existentielles que représentent les systèmes d’IA générative étaient un thème central du sommet .

« Pour définir la sécurité de l’IA, nous devons considérer et traiter l’ensemble des risques liés à l’IA : menaces pour l’humanité dans son ensemble, menaces pour les individus, pour nos communautés et nos institutions, et menaces pour nos populations les plus vulnérables », a-t-elle poursuivi. « Pour garantir la sécurité de l’IA, nous devons gérer tous ces dangers. »

À cette fin, Kamala Harris a annoncé mercredi que la Maison Blanche, en coopération avec le ministère du Commerce, était en train de créer l’Institut américain de sécurité de l’IA (US AISI) au sein du NIST . Il sera chargé de créer et de publier toutes les lignes directrices, tests de référence, meilleures pratiques, etc. pour tester et évaluer les systèmes d’IA potentiellement dangereux.

Ces tests pourraient inclure les exercices de l’équipe rouge mentionnés par le président Biden dans son décret. L’AISI serait également chargée de fournir des conseils techniques aux législateurs et aux forces de l’ordre sur un large éventail de sujets liés à l’IA, notamment l’identification du contenu généré, l’authentification du contenu enregistré en direct, l’atténuation de la discrimination liée à l’IA et la garantie de la transparence dans son utilisation.

En outre, l’Office of Management and Budget (OMB) s’apprête à publier, pour commentaires du public, le premier projet d’orientation politique de l’administration sur l’utilisation de l’IA par le gouvernement plus tard cette semaine. 

À l’instar du projet de déclaration des droits de l’IA sur lequel il s’appuie, le projet d’orientation politique décrit les mesures que le gouvernement national peut prendre pour « faire progresser l’innovation responsable en matière d’IA » tout en maintenant la transparence et en protégeant les travailleurs fédéraux d’une surveillance accrue et des suppressions d’emplois. Ce projet de lignes directrices sera à terme utilisé pour établir des garanties pour l’utilisation de l’IA dans un large éventail d’applications du secteur public, notamment les transports, l’immigration, la santé et l’éducation. Il est donc mis à la disposition du public pour commentaires sur ai.gov/input .

Kamala Harris a également annoncé lors de son discours que la Déclaration politique sur l’utilisation responsable de l’intelligence artificielle et de l’autonomie publiée par les États-Unis en février a rassemblé à ce jour 30 signataires, qui ont tous accepté un ensemble de normes pour le développement et le déploiement responsables de systèmes d’IA militaire. Plus que 165 nations à parcourir !

L’administration lance également un hackathon virtuel dans le but d’atténuer les dommages que les fraudeurs téléphoniques et Internet basés sur l’IA peuvent infliger. Les participants au hackathon travailleront à la création de modèles d’IA capables de contrer les appels automatisés et les messages robotisés, en particulier ceux ciblant les personnes âgées avec des escroqueries vocales générées.

L’authentification du contenu est une priorité croissante de l’administration Biden-Kamala Harris. L’EO du président Biden a expliqué que le département du Commerce sera le fer de lance des efforts visant à valider le contenu produit par la Maison Blanche grâce à une collaboration avec le C2PA et d’autres groupes de défense de l’industrie. 

Ils s’efforceront d’établir des normes industrielles, telles que les engagements volontaires précédemment extraits de 15 des plus grandes entreprises d’IA de la Silicon Valley . Dans ses remarques, Kamala Harris a étendu cet appel à l’échelle internationale, demandant le soutien de toutes les nations pour élaborer des normes mondiales d’authentification du contenu produit par le gouvernement.

« Ces engagements volontaires [des entreprises] constituent une première étape vers un avenir plus sûr de l’IA, et d’autres sont à venir », a-t-elle déclaré. « Comme l’histoire l’a montré, en l’absence de réglementation et d’une surveillance gouvernementale stricte, certaines entreprises technologiques choisissent de donner la priorité au profit plutôt qu’à : Le bien-être de leurs clients ; la sécurité de nos communautés; et la stabilité de nos démocraties.

« Une manière importante de relever ces défis – en plus du travail que nous avons déjà effectué – consiste à adopter une législation – une législation qui renforce la sécurité de l’IA sans étouffer l’innovation », a poursuivi Kamala Harris.

https://www.engadget.com/kamala-harris-announces-ai-safety-institute-to-protect-american-consumers-060011065.html

YouTube prend au sérieux le blocage des bloqueurs de publicités

YouTube a confirmé avoir « lancé un effort mondial » pour sévir contre les bloqueurs de publicités.

YouTube intensifie ses efforts pour lutter contre les bloqueurs de publicités. La plateforme a « lancé un effort mondial » pour encourager les utilisateurs à autoriser les publicités ou à essayer YouTube Premium, a déclaré Christopher Lawton, responsable de la communication de YouTube, dans une déclaration fournie à The Verge.

Si vous rencontrez le blocage de YouTube, vous verrez peut-être un avis indiquant « la lecture vidéo est bloquée, sauf si YouTube est sur la liste verte ou si le bloqueur de publicités est désactivé. » Il comprend également une invite pour autoriser les publicités ou essayer YouTube Premium. Vous pouvez recevoir des instructions sur la position de YouTube sur les bloqueurs de publicités, mais vous pouvez toujours regarder une vidéo. Cependant, pour un membre du personnel de Verge , YouTube les bloque désormais complètement presque à chaque fois.

YouTube a confirmé qu’il désactivait les vidéos pour les utilisateurs dotés de bloqueurs de publicités en juin , mais Christopher Lawton l’a décrit comme seulement une « petite expérience à l’échelle mondiale » à l’époque. Aujourd’hui, YouTube a étendu cet effort. Au cours des dernières semaines, de plus en plus d’utilisateurs équipés de bloqueurs de publicités se sont retrouvés incapables de regarder des vidéos YouTube, un message d’ Android Authority soulignant l’augmentation des rapports.

Christopher Lawton soutient que « l’utilisation de bloqueurs de publicités » viole les conditions de service de la plateforme, ajoutant que « les publicités soutiennent un écosystème diversifié de créateurs à l’échelle mondiale et permettent à des milliards d’accéder à leur contenu préféré sur YouTube ».

YouTube a apporté cette année plusieurs changements à la façon dont les publicités fonctionnent sur sa plateforme. La société a introduit des publicités non désactivables de 30 secondes dans son application TV en mai et a ensuite commencé à expérimenter des coupures publicitaires plus longues mais moins fréquentes à la télévision également. YouTube espère probablement que ses longues coupures publicitaires inciteront davantage d’utilisateurs à souscrire à son abonnement YouTube Premium sans publicité, mais une hausse de prix de 2 $ et l’arrêt de son forfait Premium Lite moins cher pourraient rendre l’option moins attrayante.

https://www.theverge.com/2023/10/31/23940583/youtube-ad-blocker-crackdown-broadening

Fluid Reality présente ses gants VR haptiques haute résolution non attachés

Le gant VR haptique de Fluid Reality est léger et non attaché

Fluid Reality offre une alternative aux gants haptiques VR actuellement disponibles, en développant un appareil moins cher et plus léger qui n’a pas besoin d’être attaché à des sacs à dos volumineux ou à une multitude de tubes. Il est conçu pour offrir aux utilisateurs une expérience VR haute résolution, directement au bout de leurs doigts.

L’haptique offre une dimension supplémentaire à un environnement de réalité virtuelle (VR) ou 3D et est essentielle pour que les utilisateurs ressentent le sentiment d’être véritablement immergés dans ces environnements.

Jusqu’à présent, cependant, les gants haptiques tels que ceux développés par HaptX et Meta sont attachés à des unités de contrôle volumineuses avec un tas de fils et de tubes encombrants. Le gant VR haptique de Not So Fluid Reality, qui offre une unité entièrement sans fil, légère et entièrement autonome.

Le gant de Fluid Reality dispose de 160 actionneurs de retour haptique dynamique conçus pour offrir aux utilisateurs un toucher haute résolution directement au bout de chacun de leurs doigts. Ainsi, utiliser le gant pour jouer d’un violon virtuel, par exemple, devrait permettre à l’utilisateur de ressentir chacune des cordes individuelles de l’instrument.

160 actionneurs à retour haptique dynamique sont conçus pour offrir à l’utilisateur un toucher haute résolution

Voici comment cela fonctionne. Dans chaque réseau haptique du bout des doigts se trouvent des « pixels » en forme de bulle contenant un fluide qui remplit et étire la bulle lorsqu’elle est activée. Chaque pixel est une pompe dédiée, contrôlée électriquement, d’une épaisseur de quelques centaines de microns seulement.

Les pompes ne contiennent aucune pièce mobile et fonctionnent sur le principe de l’électroosmose, attirant directement la charge dans le fluide pour le faire circuler. La conception révolutionnaire de Fluid Reality vise à donner vie à des objets de différentes formes, tailles et textures.

Ce design révolutionnaire est destiné à donner vie à des objets de différentes tailles, formes et textures.

D’une épaisseur de 0,2 po (5 mm), les réseaux haptiques sont discrets et fonctionnent avec une faible puissance de 10 mW/pixel. Ils sont entièrement autonomes, sans tubes ni câbles reliant des équipements externes. Le gant a une autonomie d’environ trois heures.

Fluid Reality attribue la conception compacte et légère de son gant haptique à l’utilisation de composants disponibles dans le commerce et entièrement intégrés tels qu’un Raspberry Pi. Le gant pèse 207 g, y compris tous les composants électroniques de commande et la batterie, soit une fraction du poids des 7,7 kg du Glove G1 de HaptX. Et à moins de 1 000 $ US, c’est moins cher ; le Glove G1 vous coûtera 5 495 $ pour une paire, plus un coût d’abonnement au service obligatoire de 495 $ par mois.

L’équipe Fluid Reality a présenté un article ( PDF ) sur la conception de ses gants haptiques lors du symposium 2023 sur les logiciels et technologies d’interface utilisateur (UIST), et la vidéo ci-dessous démontre les caractéristiques du gant.

https://www.fluidreality.com/

Les jambes à roulettes permettent au robot quadrupède W1 de LimX Dynamics de marcher et de rouler

Les escaliers ne posent aucun problème pour le W1

Il y a deux ans, nous avons entendu parler pour la première fois du Swiss-Mile Robot , un robot quadrupède doté de roues motrices aux extrémités de ses quatre pattes. La société chinoise LimX Dynamics a annoncé son propre quadrupède à roues, dénommé W1.

Tout d’abord, à quoi ça sert de mettre des roues sur les jambes d’un robot ?

Eh bien, lorsque vous voyagez sur des routes lisses, des trottoirs ou des sols, les roues permettent au W1 de se déplacer beaucoup plus rapidement et de manière plus économe en énergie que s’il trottait comme un cheval.

Ces jambes restent cependant très utiles, car elles permettent au robot de franchir des bordures ou d’autres obstacles, de traverser un terrain accidenté et de monter/descendre des escaliers. Pendant qu’il effectue ces actions, ses roues restent verrouillées, de sorte que le bas de leurs pneus sert de repose-pieds adhérents.

Le W1 peut franchir les trottoirs ou autres obstacles

De plus, lorsqu’il monte les escaliers, le W1 peut ajuster l’angle de son corps en pliant ses jambes de haut en bas. De cette façon, il est capable de maintenir son corps soit horizontalement, soit parallèlement à la pente de l’escalier. Cette fonctionnalité l’empêche de laisser tomber des charges sensibles (lorsqu’il est horizontal) ou lui permet de se frayer un chemin à travers des espaces confinés (lorsqu’il reste parallèle).

Le W1 peut également ajuster sa hauteur lorsqu’il roule sur des surfaces planes, de sorte qu’il puisse s’asseoir plus bas afin d’éviter les obstacles aériens et maintenir sa stabilité à grande vitesse. Lorsque vous roulez sur des surfaces plus accidentées telles que des chemins de terre, ses jambes flexibles peuvent également servir d’amortisseurs.

Le W1 se fraye un chemin sous un obstacle alors qu’il roule en mode roue

Et bien que le W1 soit contrôlable à distance, un système embarqué de perception du terrain en temps réel lui permet de basculer de manière autonome entre différents modes de locomotion en fonction de son environnement.

LimX a déclaré qu’elle commencerait à prendre des précommandes pour le W1 plus tard cette année. Les spécifications de performances et les prix devraient être annoncés à ce moment-là. En attendant, vous pouvez voir le robot en action, dans la vidéo suivante.

https://www.limxdynamics.com/en

NextBase lance une nouvelle caméra de tableau de bord iQ compatible avec l’IA

Les fonctionnalités de NextBase iQ incluent la détection des voleurs potentiels et la notification en temps réel

NextBase a annoncé une nouvelle caméra embarquée artificiellement intelligente baptisée iQ. L’appareil intelligent combine la technologie basée sur l’IA avec la technologie 4G pour connecter les véhicules et les propriétaires avec une détection des accidents « plus qu’en temps réel ».

L’iQ surveille le véhicule à tout moment, détectant les tentatives d’effraction, les incidents de conduite, etc. NextBase affirme que faire passer le rôle d’une caméra embarquée à un niveau supérieur aura des implications sur la sécurité, les réclamations d’assurance et l’accès en temps réel.

« Il permet aux utilisateurs d’anticiper, de prévenir et de se défendre contre les incidents sur la route et en stationnement », a déclaré Dustin Alred, responsable des opérations nord-américaines de NextBase. « Nos enquêtes ont montré que les consommateurs sont préoccupés non seulement par les incidents routiers, mais également par les effractions et les vols. »

« Les compagnies d’assurance en Europe ont des directives générales concernant les images et le placement des caméras embarquées afin d’obtenir des récompenses pour leur utilisation », a ajouté Richard Browning, directeur du marketing et des ventes de NextBase. « Aux États-Unis, cependant, il n’y a pas de norme pour cela et la plupart des compagnies d’assurance n’accordent pas de réductions pour avoir une caméra embarquée. La plupart des agents d’assurance et des avocats, nous avons appris, recherchent des données. Pas seulement des images. »

« Au tribunal ou pendant les négociations, ces données peuvent faire la différence dans la détermination d’une faute. Notre caméra iQ est conçue pour collecter des données de 20 minutes avant un incident à 20 minutes après, y compris la vitesse du véhicule, jusqu’à trois angles de caméra [avant, arrière, en cabine], et plus encore. »

L’application NextBase permet aux utilisateurs d’iQ d’accéder aux images de la caméra en temps réel ainsi que de configurer des situations d’alerte, des contacts d’urgence, etc.

Le composant principal du NextBase iQ est une caméra orientée vers l’avant qui se monte sur le pare-brise juste derrière et légèrement en dessous du rétroviseur. Conçu pour être câblé en permanence, l’iQ peut être connecté via un cavalier à fusible ou le port OBD du véhicule. Les deux options sont fournies. Une autre caméra, connectée sans fil à l’unité principale, peut être montée dans la lunette arrière.

Pendant que le véhicule est en marche, le NextBase iQ enregistre en résolution 1080p, 2K, 3K ou 4K, selon la caméra achetée. Il enregistre simultanément toutes les caméras connectées en boucle. Lorsqu’un incident se produit, la caméra enregistre immédiatement les 20 minutes d’activité précédentes et 10 minutes supplémentaires. Cela inclut des données autres que la vidéo capturée, notamment la détection de la vitesse du véhicule basée sur le GPS, les coordonnées GPS, etc. De même, l’activation du mode témoin via une commande vocale dans la voiture ou via l’application NextBase fera de même.

Si le conducteur ne semble pas répondre ou ne répond pas aux invites de la caméra, l’iQ activera le mode SOS d’urgence et enverra les informations de localisation de l’incident aux services d’urgence via le réseau cellulaire. Lorsqu’un événement se produit sur la route, le NextBase iQ peut également alerter immédiatement tout contact d’urgence répertorié. Il peut également envoyer des informations sur les accidents directement à un agent d’assurance ou à un contact.

Pendant que le véhicule est garé, le NextBase iQ passe en mode Smart Sense Parking. Cela permet d’économiser la batterie du véhicule en mettant les caméras en veille et en utilisant des capteurs de proximité à faible consommation et des capteurs de conscience de la force g. Le rayon de proximité peut être défini via l’application NextBase, permettant de contrôler la sensibilité de la détection. Lorsqu’un objet suffisamment grand pour constituer une menace (à taille humaine) entre à proximité, le NextBase iQ se réveille et commence à enregistrer, envoyant éventuellement une alerte au propriétaire du véhicule.

Grâce à des technologies basées sur l’IA telles que la détection faciale, le NextBase iQ peut déterminer si une personne à proximité du véhicule ne fait que passer, entre dans un véhicule adjacent ou regarde activement à l’intérieur du véhicule protégé par iQ. La notification d’événement en temps réel inclura ces informations et, si elle est connectée, l’iQ enverra les enregistrements vers le cloud. Voler la caméra ou la désactiver ne supprimera pas ces données.

Les fonctionnalités d’activation vocale du NextBase iQ permettent plusieurs contrôles en temps réel de la caméra. « Nous savons que parfois les gens souhaitent avoir de la vie privée pour diverses raisons », a déclaré Dustin Alred. « L’activation vocale permet à l’utilisateur [dans le véhicule] d’éteindre la caméra embarquée, par exemple. Ou de couper le micro. »

Bientôt sur l’iQ (via des mises à jour en direct) des fonctionnalités supplémentaires telles que le mode de surveillance, dans lequel la caméra peut désactiver certaines fonctionnalités pour des situations spécifiques – comme lorsque la voiture est avec un mécanicien, un voiturier ou un adolescent… , par exemple. Des limites GPS pour les conducteurs adolescents peuvent également être définies, envoyant des alertes si ces limites sont franchies.

« Nous considérons l’iQ comme une plate-forme physique pour des logiciels continuellement mis à jour et améliorés », précise Richard Browning. « Nous continuerons d’améliorer et d’améliorer les capacités de la caméra et la convivialité de l’application au fil du temps. »

Le NextBase iQ se connecte via le réseau T-Mobile. Sans abonnement, l’iQ et l’application disposent d’une commande vocale et de notifications textuelles, mais pas de stockage cloud. Un forfait à 100 $ US/an et un forfait à 200 $/an ajoutent plus de fonctionnalités et de stockage en conséquence. Des options mensuelles sont également disponibles et peuvent être activées/désactivées à volonté.

Le NextBase iQ est disponible dans les magasins Best Buy, en ligne et via NextBase. Le prix commence à 500 $ pour l’unité 1080p. Les unités 2K et 4K coûtent respectivement 600 $ et 700 $. En novembre, NextBase proposera le module complémentaire optionnel de caméra arrière du véhicule pour 200 $.

https://nextbase.com/smart-dash-cams/iq-smart-dash-cam/

La technologie BrushLens pourrait rendre les écrans tactiles accessibles à tous

BrushLens est conçu pour aider les personnes qui, autrement, ne pourraient pas utiliser les interfaces à écran tactile.

Pour les personnes aveugles ou qui n’ont pas un contrôle fin de leurs doigts, les interfaces tactiles telles que celles utilisées sur les kiosques en libre-service peuvent être pratiquement impossibles à utiliser. Le nouveau dispositif expérimental BrushLens, en revanche, utilise le smartphone de l’utilisateur pour faire le travail.

Actuellement à l’état de prototype fonctionnel, BrushLens est développé à l’université du Michigan par une équipe dirigée par les professeurs adjoints Anhong Guo et Alanson Sample.

Il s’agit essentiellement d’un étui high-tech pour smartphone, qui laisse l’écran du téléphone visible et accessible sur le dessus, et dispose d’une fenêtre permettant de voir l’appareil photo arrière du téléphone sur le dessous. Cette fenêtre est entourée d’un anneau d' »autoclickers », qui modifient la capacité d’un écran tactile pour simuler le toucher d’un doigt.

Le dessous du dispositif BrushLens, avec les autoclickers entourant la fenêtre de l’appareil photo du téléphone – une autre version utilise des boutons-poussoirs mécaniques à la place des autoclickers.

Lorsqu’un téléphone équipé de BrushLens est déplacé sur la surface d’un grand écran tactile, il est capable de lire le texte affiché grâce à son appareil photo. Une application d’accompagnement prononce les mots au fur et à mesure que le téléphone passe dessus.

Lorsque l’utilisateur souhaite cliquer sur l’un des mots affichés, il peut soit appuyer sur un gros bouton facile à presser sur l’écran de l’application de son téléphone, soit utiliser la fonction de lecture d’écran existante du téléphone (dans laquelle les sélections peuvent être effectuées par de simples glissements ou d’autres gestes). Une fois le système perfectionné, l’utilisateur pourrait également se contenter d’énoncer une commande verbale.

Dans tous les cas, le BrushLens réagit en activant le(s) autoclicker(s) approprié(s), provoquant l’enregistrement d’un toucher sur cette partie de l’écran tactile sous-jacent. En outre, une fois que la disposition de l’affichage sur cet écran a été cartographiée, l’application peut guider verbalement l’utilisateur à travers l’écran.

Pour ce faire, elle divise l’écran en une grille et utilise l’unité de mesure inertielle (IMU) du téléphone pour suivre la position du téléphone dans cette grille. En comparant l’emplacement du bouton souhaité à l’écran avec l’emplacement actuel du téléphone, l’application est en mesure d’indiquer à l’utilisateur dans quelle direction il doit déplacer son téléphone, jusqu’à ce qu’il atteigne le bouton en question.

L’application BrushLens guide les utilisateurs sur l’écran en le divisant en grille

La technologie a été testée sur dix volontaires, dont quatre souffraient de tremblements ou de spasmes et six de déficience visuelle. Dans tous les cas, après une courbe d’apprentissage initiale, le dispositif a amélioré leur capacité à utiliser les écrans tactiles.

La fabrication du prototype a coûté moins de 50 dollars, et une version commerciale perfectionnée devrait coûter beaucoup moins cher. Parmi les autres mesures de réduction des coûts et de la taille, la version finale pourrait être alimentée par la batterie du téléphone et utiliser le téléphone pour effectuer tout le traitement des données.

« De nombreuses technologies qui nous entourent nécessitent des hypothèses sur les capacités des utilisateurs, mais les interactions apparemment intuitives peuvent en fait représenter un défi pour les personnes », a déclaré Chen Liang, étudiant en doctorat et premier auteur d’un article sur l’étude. « Les gens doivent pouvoir utiliser ces écrans tactiles inaccessibles dans le monde. Notre objectif est de rendre cette technologie accessible à tous ».

https://news.umich.edu/new-phone-case-provides-workaround-for-inaccessible-touch-screens/

https://liangchenlc.com/files/uist2023_BrushLens.pdf

Une fibre métamorphique réagit à la chaleur et pourrait produire des tissus morphologiques

Jack Forman fait partie d’une équipe qui a créé une fibre métamorphique réagissant à la chaleur et pouvant être utilisée par les machines de production textile existantes.

Des chercheurs ont créé une fibre peu coûteuse qui se contracte sous l’effet de la chaleur et reprend sa forme lorsque celle-ci disparaît. Compatible avec les machines de production textile existantes et ne dépendant pas de capteurs ou d’autres équipements, la fibre à changement de forme pourrait avoir une myriade d’utilisations.

Depuis un certain temps, les chercheurs s’efforcent de produire des fibres à changement de forme pouvant être incorporées dans des textiles pour toute une série d’applications, depuis le maintien au chaud des personnes jusqu’au revêtement intérieur des avions. Mais nombre d’entre elles nécessitent un matériel qui rend leur utilisation peu pratique en dehors des laboratoires.

Aujourd’hui, des chercheurs du MIT et de la Northeastern University ont mis au point une fibre d’actionnement peu coûteuse, baptisée FibeRobo, qui change de forme en fonction de la température et qui est compatible avec les machines de fabrication de textiles existantes, ce qui signifie qu’elle pourrait être utilisée dans le monde réel.

« Nous utilisons des textiles pour tout », a déclaré Jack Forman, auteur principal de l’étude. « Nous construisons des avions avec des matériaux composites renforcés de fibres, nous recouvrons la station spatiale internationale d’un tissu de protection contre les radiations, nous les utilisons pour l’expression personnelle et la performance. Une grande partie de notre environnement est adaptative et réactive, mais la chose qui devrait être la plus adaptative et réactive – les textiles – est complètement inerte. »

Pour créer une fibre capable d’agir silencieusement et de changer de forme tout en étant compatible avec les procédures courantes de fabrication des textiles, les chercheurs se sont tournés vers l’élastomère à cristaux liquides (LCE). Un cristal liquide est une série de molécules qui peuvent s’écouler comme un liquide mais qui, lorsqu’on les laisse se déposer, s’empilent pour former un arrangement cristallin.

Ils ont incorporé ces structures cristallines dans un réseau d’élastomère extensible. Lorsque la chaleur est appliquée au LCE, les cristaux se désalignent et tirent sur l’élastomère, ce qui entraîne la contraction de la fibre. Lorsque la chaleur disparaît, les molécules reprennent leur alignement d’origine.

Une fibre est créée en pressant lentement la résine LCE chauffée à travers une buse tout en la durcissant à l’aide d’une lumière UV. La lumière doit être parfaite. Si la lumière est faible, le matériau se sépare et coule ; si elle est trop forte, il s’agglutine. La fibre est ensuite trempée dans de l’huile pour lui donner un revêtement glissant et durcie à nouveau avec une lumière UV puissante, ce qui crée une fibre solide et lisse. Enfin, elle est recueillie dans une bobine supérieure et trempée dans de la poudre afin de pouvoir glisser facilement dans les machines de fabrication de textiles.

« Il y a beaucoup de boutons que nous pouvons tourner », souligne Jack Forman. « Il a fallu beaucoup de travail pour mettre au point ce processus à partir de zéro, mais en fin de compte, il nous donne une grande liberté pour la fibre qui en résulte. »

De la synthèse chimique à la bobine finie, le processus prend environ une journée et produit environ un kilomètre de fibre prête à l’emploi. La fibre, que les chercheurs ont baptisée FibeRobo, peut être produite à 20 cents le mètre, soit environ 60 fois moins cher que les fibres à changement de forme disponibles dans le commerce. Elle peut se contracter jusqu’à 40 % sans se plier, bien que la version sans danger pour la peau se contracte jusqu’à environ 25 %.

FibeRobo peut être produite à faible coût et utilisée avec les technologies existantes pour créer des textiles à changement de forme

La fibre peut être incorporée dans des machines à coudre et à tricoter industrielles, ainsi que dans des métiers à bras non industriels, et être crochetée, sans aucune modification du processus. Pour tester les capacités de FibeRobo, les chercheurs ont utilisé une machine à tricoter industrielle pour créer une veste de compression pour le chien de Jack Forman qui peut « étreindre » l’animal à l’aide d’un signal Bluetooth provenant d’un smartphone. Ils l’ont également utilisé pour créer un soutien-gorge de sport adaptatif brodé qui se resserre lorsque l’utilisateur commence à faire de l’exercice.

Les chercheurs prévoient de rendre les composants chimiques de FibeRobo recyclables ou biodégradables et de rationaliser le processus de synthèse des polymères afin que les utilisateurs ne disposant pas de compétences en laboratoire puissent les fabriquer eux-mêmes.

« En fin de compte, vous ne voulez pas d’un tissu de diva », assure Jack Forman. « Vous voulez une fibre qui, lorsque vous travaillez avec elle, fait partie de l’ensemble des matériaux – une fibre avec laquelle vous pouvez travailler comme n’importe quel autre matériau de fibre, mais qui possède un grand nombre de nouvelles capacités passionnantes. »

À l’avenir, les chercheurs espèrent que les gens pourront acheter FibeRobo dans un magasin d’artisanat, comme ils le feraient avec une pelote de laine, et l’utiliser pour créer leurs propres produits de morphing.

L’étude sera présentée lors du 36e symposium annuel de l’ACM sur les logiciels et technologies d’interface utilisateur en octobre 2023. La vidéo ci-dessous, produite par le MIT, démontre les capacités de FibeRobo.

https://dl.acm.org/doi/10.1145/3586183.3606732

https://news.mit.edu/2023/shape-shifting-fiber-can-produce-morphing-fabrics-1026

L’IA arrive en force sur votre téléphone

Google, Qualcomm, Motorola et potentiellement Apple se lancent à corps perdu dans l’IA.

Le smartphone est sur le point d’évoluer en profondeur. Pendant des années, les leaders du secteur ont estimé que l’arrivée de la 5G et des écrans pliables seraient les avancées technologiques qui marqueraient un tournant pour le smartphone.

Aujourd’hui, en 2023, cet enthousiasme s’est déplacé vers l’IA générative, une technologie qui, selon des magnats comme Bill Gates, cofondateur de Microsoft, et Sundar Pichai, PDG d’Alphabet, pourrait être aussi monumentale que l’aube du smartphone et de l’internet lui-même.

L’intelligence artificielle générative, ou IA capable de créer de nouveaux contenus, a englouti le monde de la technologie cette année, façonnant la trajectoire des nouveaux produits de Meta, propriétaire d’Alphabet, de Microsoft, d’Instagram et de Facebook, et d’autres grandes entreprises technologiques. Au dernier trimestre 2023, nous avons une meilleure idée de la façon dont ce changement s’étend au smartphone.

L’IA était au centre du lancement du Pixel 8 de Google au début du mois, l’entreprise ayant montré comment ses algorithmes peuvent sélectionner les meilleures expressions faciales dans des lots de photos de groupe et les coller facilement dans une image différente.

Le prochain processeur pour smartphone du principal fabricant de puces mobiles Qualcomm est conçu pour accélérer les tâches de traitement de l’IA, comme l’a détaillé l’entreprise lors de son sommet Snapdragon à la fin du mois d’octobre. Selon un récent rapport de Bloomberg, Apple serait en train de développer une multitude de nouvelles fonctionnalités pour l’iPhone et d’autres produits qui s’appuient sur l’IA.

« L’IA est l’avenir de l’expérience smartphone », a déclaré Alex Katouzian, vice-président senior et directeur général de la division mobile, compute et XR de Qualcomm, lors de l’événement organisé par l’entreprise. « Et lorsqu’il s’agit de technologie mobile, c’est ce vers quoi nous tendons depuis plus d’une décennie.« 

ChatGPT a donné le coup d’envoi à la frénésie de l’IA générative à la fin de l’année dernière.

ChatGPT et les nouveaux outils de recherche alimentés par l’IA de Microsoft et de Google ont peut-être été le point de départ de l’IA générative à la fin de 2022 et au premier semestre de 2023. Mais il n’a pas fallu longtemps pour que cette technologie ait un impact sur l’orientation des smartphones actuels et futurs.

L’IA n’est pas une nouveauté pour les appareils mobiles ; des fonctions telles que la dictée vocale, la traduction linguistique et la reconnaissance faciale exploitent déjà la technologie. Les iPhones d’Apple, par exemple, disposent d’un moteur neuronal pour gérer les tâches liées à l’apprentissage automatique depuis 2017, à partir de la génération de l’iPhone X et de l’iPhone 8.

L’IA générative est différente. Il ne s’agit pas nécessairement d’une IA qui fonctionne passivement pour détecter une personne sur une photo ou déverrouiller votre téléphone dès que vous le portez à votre visage. Elle permet plutôt des cas d’utilisation qui semblent nouveaux, qu’il s’agisse de générer de nouveaux fonds d’écran à la demande ou d’ajuster l’expression d’une personne sur une photo.

« Il s’agit vraiment de donner aux utilisateurs le contrôle de l’utilisation de l’IA et de la façon dont ils veulent l’utiliser, comment ils veulent l’appliquer à leur vie quotidienne », a déclaré Subhashish Dasgupta du cabinet d’analyse Kantar, spécialisé dans les industries de la technologie et de la santé.

Les Pixel 8 et 8 Pro de Google en sont les plus grands exemples à ce jour. Bien que les deux téléphones incluent des mises à niveau de routine comme un nouveau processeur et un matériel photo légèrement amélioré, ce sont les nouvelles astuces alimentées par l’IA des téléphones qui les font sortir du lot.

Une fonction de retouche photo appelée Best Take peut analyser les selfies de groupe que vous avez récemment pris et intervertir les expressions faciales entre les images. En d’autres termes, l’IA de Google peut créer la photo parfaite où tout le monde sourit, même si ce moment n’a jamais eu lieu.

La fonction Meilleure prise de Google vous permet d’intervertir les expressions faciales.

Magic Editor utilise également l’IA pour vous permettre de manipuler vos photos de multiples façons : Vous pouvez vous agrandir ou vous rapetisser, créer l’illusion d’un saut d’une hauteur surhumaine ou même remplacer le sol lui-même.

Ce ne sont là que les derniers exemples en date de la manière dont Google tente de donner à l’intelligence artificielle une place plus importante dans nos téléphones. Une autre fonctionnalité, appelée Magic Compose, que Google a annoncée lors de sa conférence des développeurs en mai, utilise l’IA générative pour suggérer des réponses aux messages texte ou réécrire des réponses sur un ton différent dans l’application de messagerie de l’entreprise. Le créateur de fonds d’écran AI de Google peut créer de nouveaux arrière-plans pour votre téléphone à partir de rien, en se basant sur des invites.

La fonction Magic Compose de Google en action

En 2024 et au-delà, l’IA devrait jouer un rôle encore plus important dans nos smartphones. Qualcomm, qui crée des puces alimentant les téléphones d’entreprises telles que Samsung, Xiaomi et OnePlus, a clairement pensé à l’IA lors du développement de son nouveau processeur mobile Snapdragon 8 Gen 3. Cristiano Amon, PDG de Qualcomm, a présenté la vision de l’entreprise sur la manière dont l’IA modifiera les smartphones lors du sommet Snapdragon qui s’est tenu à Hawaï le 24 octobre.

Le fabricant de puces conçoit l’IA comme une couche supplémentaire fonctionnant parallèlement au système d’exploitation et aux applications du téléphone, capable de comprendre les données vocales, textuelles et visuelles et de fournir des suggestions. C’est très différent des assistants virtuels que nous avons appris à connaître au cours de la dernière décennie, comme Siri d’Apple, Alexa d’Amazon et l’assistant de Google. Plutôt que d’envisager l’IA au niveau des fonctionnalités individuelles, Qualcomm la considère comme un élément fondamental des opérations quotidiennes de votre téléphone à l’avenir.

« Il s’agit en fait d’une sorte d’assistant vocal 2.0 », a déclaré Luke Pearce, analyste principal chez CCS Insight, société de recherche et de conseil dans le domaine de la technologie. « Il s’agit d’un système beaucoup plus conversationnel et naturel.

Qualcomm a annoncé le Snapdragon 8 Gen 3 lors de son Snapdragon Summit.

Lors de sa présentation, Qualcomm a donné un aperçu de ce à quoi pourrait ressembler cet avenir. Une vidéo de présentation a montré un assistant virtuel capable d’extraire les sujets clés d’un appel téléphonique, de les résumer sous forme de puces et de fournir ensuite des recommandations. Un autre exemple montre un assistant IA qui extrait des mots-clés d’un fil de messagerie entre deux amis afin de leur fournir de manière proactive des recommandations pour leur rencontre.

Un outil de photographie alimenté par le nouveau processeur Snapdragon 8 Gen 3 de l’entreprise vous permettra de faire un zoom arrière sur une photo que vous avez déjà prise et de générer plus de détails au-delà du cadre pour donner l’impression qu’elle a été prise avec un objectif grand angle.

« Cela change notre façon de penser les appareils, le [système d’exploitation] et les applications, et la façon de définir l’expérience de l’utilisateur « , a déclaré Cristiano Amon sur scène.

Qualcomm a montré comment l’IA peut résumer les appels téléphoniques lors de sa conférence de presse Snapdragon Summit.

Qualcomm ne perd pas de temps. Elle collabore avec Google pour que les modèles d’IA du géant de la recherche puissent fonctionner localement sur les futurs téléphones équipés de Snapdragon. Xiaomi a également dévoilé son nouveau téléphone Xiaomi 14, qui sera l’un des premiers appareils à fonctionner avec la nouvelle puce de Qualcomm, lors de l’événement.

Mais d’autres marques comme Oppo, OnePlus, Honor et Vivo adopteront également la puce, probablement l’année prochaine. Samsung intègre généralement le dernier processeur de Qualcomm dans la version américaine de ses téléphones phares Galaxy S et Galaxy Z pliables, bien que les Galaxy S23, Galaxy Z Flip 5 et Galaxy Z Fold 5 fonctionnent avec une version personnalisée du Snapdragon 8 Gen 2.

Motorola n’est pas en reste et s’efforce également d’intégrer davantage de fonctions d’intelligence artificielle à ses smartphones. Lenovo, qui possède Motorola, développe un assistant IA pour les PC et les téléphones qui apprend de votre comportement et peut accomplir des tâches en votre nom, telles que la rédaction de messages et la planification de tâches.

« Il s’agit en fait d’une sorte d’assistant vocal 2.0. Il s’agit d’une sorte d’assistant vocal 2.0, beaucoup plus conversationnel et naturel ». Luke Pearce, analyste principal chez CCS Insight

Entre le lancement du Pixel 8 de Google et le sommet Snapdragon de Qualcomm, il ne fait aucun doute que le paysage Android en 2024 sera entièrement consacré à l’IA. Mais qu’en est-il de l’iPhone ? Apple évoque rarement, voire jamais, ses futurs produits. Cependant, Mark Gurman de Bloomberg rapporte qu’Apple est en train de développer une série de mises à jour de l’IA pour sa famille de produits, y compris l’iPhone.

Craig Federighi, vice-président senior de l’ingénierie logicielle d’Apple, serait à la tête d’une initiative visant à intégrer l’IA dans la prochaine mise à jour majeure de l’iPhone, qui devrait s’appeler iOS 18. Selon le rapport, Apple souhaite intégrer son modèle d’apprentissage du langage dans le logiciel, qui pourrait apparaître dans Siri et dans l’application Messages d’Apple.

Selon Bloomberg, la suite d’applications d’Apple pourrait également faire l’objet d’une refonte de l’IA. L’entreprise chercherait à introduire des listes de lecture générées automatiquement dans Apple Music et des fonctions assistées par l’IA dans Pages et Keynote.

Si le rapport de Bloomberg s’avère exact, Apple pourrait ajouter des fonctions d’IA à Siri.

Mais pour obtenir les expériences personnalisées que des entreprises comme Google et Qualcomm envisagent, vous devrez donner aux géants de la technologie une fenêtre encore plus grande sur votre vie. Après tout, comment ces appareils peuvent-ils fournir des recommandations basées sur vos messages texte ou résumer vos appels téléphoniques sans que l’IA soit intégrée à vos communications ?

« Ce que l’IA essaie de faire, c’est de vous prédire « , précise Cristiano Amon lors de la présentation de Qualcomm.

C’est l’une des principales raisons pour lesquelles Qualcomm met en avant les avantages de sa puce Snapdragon 8 Gen 3, qui, selon elle, est suffisamment puissante et efficace pour exécuter localement des tâches d’IA sur l’appareil, sans dépendre du cloud.

Cela signifie que vos informations n’auront pas à quitter votre téléphone, ce qui est préférable pour la confidentialité et la sécurité. L’application peut également faire des suggestions plus personnalisées en fonction de votre comportement, des lieux que vous visitez fréquemment et d’autres habitudes de vie, sans avoir à envoyer ces informations très personnelles dans le nuage.

Apple adopte une approche similaire en matière de données personnelles. Étant donné que l’Apple Watch Series 9 et l’Apple Watch Ultra 2 peuvent traiter des demandes verbales sur l’appareil grâce au nouveau processeur S9 d’Apple, Siri sera en mesure de répondre à des questions relatives à la santé sur ces appareils.

« Plus les données sont sensibles et personnelles, plus elles seront traitées sur l’appareil », a déclaré M. Pearce.

Cette photo a été éditée avec l’outil Magic Editor de Google sur le Pixel 8. Mon collègue Patrick Holland a supprimé un rocher géant de cette image pour donner l’impression que les sujets sautent anormalement haut.

Il y a aussi la question de savoir si l’IA respectera la limite entre la réalité et la fiction lorsqu’il s’agit d’images et de vidéos créées sur nos téléphones, comme l’a récemment souligné ma collègue Sareena Dayaram. Des outils comme Magic Editor et Best Take vont plus loin que le polissage et l’édition de photos. Ils modifient ce qui se passe dans une image.

« Maintenant, vous mettez beaucoup plus de pouvoir entre les mains d’un plus grand nombre de personnes », a déclaré M. Dasgupta. « Il est donc possible d’en faire un usage abusif de bien d’autres manières.

Qualcomm et Google ont réfléchi à cette question. Le fabricant de puces s’est associé à Truepic pour vérifier l’authenticité des images et signaler si elles ont été prises avec l’IA. Google a également lancé récemment un outil « À propos de cette image » qui fournit plus de détails sur l’origine des images qui apparaissent dans les résultats de recherche.

Il n’est pas certain que ces protections soient suffisantes pour empêcher l’IA d’être utilisée de manière trompeuse ou malveillante. Mais ce qui est clair, c’est que l’IA va changer la façon dont nous utilisons ce qui est devenu l’appareil le plus important de notre vie, pour le meilleur et, espérons-le, pour le pire.

« Il se peut qu’il y ait un cas d’utilisation extraordinaire qui n’existe pas encore », a déclaré M. Pearce. « Mais il arrivera bientôt, nous surprendra tous et deviendra tout à fait indispensable.

https://www.cnet.com/tech/mobile/ai-is-coming-for-your-phone-in-a-big-way/

<video src= »https://www.cnet.com/a/img/resize/f1baa6ae091cfeca52bafed25c07fb81e090a58e/hub/2023/10/27/fb042528-c6c3-4ce2-a82f-7c779019fa8e/google-best-take.gif?format=mp4&amp;width=1200″ poster= »https://www.cnet.com/a/img/resize/83f3453bf5c1c3f5d9de5d8a9190455e646964ff/hub/2023/10/27/fb042528-c6c3-4ce2-a82f-7c779019fa8e/google-best-take.gif?frame=1&amp;width=1200″ width= »1200″ height= »629.9003322259136″ autoplay= »autoplay » loop= »loop » muted= »muted » playsinline= » » disableremoteplayback= » »></video>

https://www.bloomberg.com/news/newsletters/2023-10-22/what-is-apple-doing-in-ai-revamping-siri-search-apple-music-and-other-apps-lo1ffr7p

https://motorolanews.com/motorola-redefines-what-is-possible-with-ai-and-adaptive-display-devices-at-lenovo-tech-world-23/

Le responsable de l’IA chez Google affirme qu’il y a 50 % de chances que nous atteignions l’Intelligence Artificielle Générative dans 5 ans seulement

« Je pense que c’est tout à fait plausible.

Il y a plus de dix ans, le cofondateur du laboratoire d’intelligence artificielle DeepMind de Google a prédit que d’ici 2028, l’IA aurait une chance sur deux d’être aussi intelligente que l’homme. Lors d’un entretien avec le podcasteur Dwarkesh Patel, le cofondateur de DeepMind, Shane Legg, a déclaré qu’il pensait toujours que les chercheurs avaient une chance sur deux de parvenir à l’intelligence artificielle générative (AGI en anglais), une position qu’il avait annoncée publiquement à la fin de l’année 2011 sur son blog.

Il s’agit d’une prédiction remarquable, compte tenu de l’intérêt croissant pour ce domaine. Sam Altman, PDG d’OpenAI, plaide depuis longtemps en faveur d’une AGI, un agent hypothétique capable d’accomplir des tâches intellectuelles aussi bien qu’un humain, et qui pourrait être utile à tous. Mais il reste à savoir si nous serons un jour capables d’en arriver là, et encore moins de nous mettre d’accord sur une définition de l’AGI.

Shane Legg a apparemment commencé à regarder vers son objectif de 2028 dès 2001, après avoir lu « L’âge des machines spirituelles », le livre révolutionnaire publié en 1999 par Ray Kurzweil, l’une des sommités de Google en matière d’IA, qui prédit l’avènement d’IA surhumaines.

« Il y a deux points très importants dans son livre que j’ai fini par considérer comme vrais », explique-t-il. « L’un d’eux est que la puissance de calcul croîtrait de manière exponentielle pendant au moins quelques décennies. D’autre part, la quantité de données dans le monde va croître de manière exponentielle pendant quelques décennies ».

Fort de sa compréhension des tendances de l’époque, telles que la méthode d’apprentissage en profondeur (deep learning), qui consiste à apprendre aux algorithmes à « penser » et à traiter les données comme le font les cerveaux humains, Shane Legg a écrit au début de la dernière décennie que l’AGI pourrait bien voir le jour dans les années à venir, à condition que « rien d’extraordinaire ne se produise, comme une guerre nucléaire ».

Aujourd’hui, le cofondateur de DeepMind a déclaré que sa prédiction selon laquelle l’ère de l’AGI serait à nos portes d’ici la fin de la décennie était assortie de certaines réserves.

La première, d’ordre général, est que les définitions de l’AGI dépendent des définitions de l’intelligence humaine – et ce genre de choses est difficile à tester, précisément parce que notre façon de penser est compliquée.

« Vous n’aurez jamais un ensemble complet de tout ce que les gens peuvent faire », précise Shane Legg – des choses comme le développement de la mémoire épisodique, ou la capacité de se rappeler des « épisodes » complets qui se sont produits dans le passé, ou même la compréhension de la vidéo en continu. Mais si les chercheurs parvenaient à mettre au point une batterie de tests d’intelligence humaine et qu’un modèle d’IA obtenait d’assez bons résultats par rapport à ces tests, a-t-il poursuivi, alors « vous auriez une IAG ».

Lorsque Dwarkesh Patel a demandé s’il existait un test simple et unique permettant de déterminer si un système d’IA avait atteint l’intelligence générative, par exemple en battant Minecraft, Shane Legg s’est défendu en affirmant qu’il n’existait pas de test unique permettant de déterminer l’intelligence générale.

« Il n’existe pas de test unique, car je pense que c’est la nature même de l’intelligence artificielle », a déclaré l’expert de l’AGI. « Il s’agit d’intelligence générale. Je devrais donc m’assurer qu’un système d’IA puisse faire un grand nombre de choses différentes et qu’il n’y ait pas de lacune. »

La deuxième mise en garde la plus importante, a ajouté Shane Legg, concerne la capacité à mettre à l’échelle les modèles d’apprentissage de l’IA, et ce de manière très importante – un point qui mérite d’être souligné étant donné la quantité d’énergie que les entreprises d’IA utilisent déjà pour produire de grands modèles de langage tels que le GPT-4 d’OpenAI.

« Il y a beaucoup d’intérêt à créer un algorithme plus évolutif pour exploiter toutes ces données informatiques », assure Shane Legg. « J’ai donc pensé qu’il était très probable que nous commencions à découvrir des algorithmes évolutifs pour y parvenir.

À la question de savoir où nous en sommes aujourd’hui sur la voie de l’IAG, Shane Legg a répondu qu’il pensait que la puissance de calcul était là où elle devait être pour que cela se produise, et que la « première étape » consisterait à « commencer à former des modèles maintenant avec une échelle de données qui dépasse ce qu’un humain peut expérimenter au cours de sa vie » – un exploit que l’industrie de l’IA est, selon lui, prête à réaliser.

Cela dit, Shane Legg a réitéré sa position personnelle selon laquelle il n’y a que 50 % de chances que les chercheurs parviennent à l’AGI avant la fin de cette décennie, et DeepMind a été contacté pour savoir si la filiale de Google avait quelque chose à ajouter à ce pronostic.

« Je pense que c’est tout à fait plausible », a-t-il déclaré, « mais je ne serai pas surpris si cela ne se produit pas d’ici là ».

https://futurism.com/google-deepmind-agi-5-years

https://www.dwarkeshpatel.com/p/shane-legg#details

https://www.vetta.org/2011/12/goodbye-2011-hello-2012/

https://futurism.com/the-byte/openai-core-values-agi

15 000 scientifiques préviennent que la société pourrait s’effondrer d’ici 2100 à cause du changement climatique

« Malheureusement, le temps est écoulé. »

Les scientifiques tirent une fois de plus la sonnette d’alarme sur les effets dévastateurs du changement climatique sur la planète – et cette fois, ils affirment que l’environnement en évolution rapide de la Terre pourrait entraîner un désastre mondial aux proportions épiques d’ici la fin du siècle.

Un nouvel article publié dans la revue BioScience a été co-signé par plus de 15 000 scientifiques dans 161 pays et prévient que « la vie sur la planète Terre est assiégée » alors que nous continuons à avancer de plus en plus vite vers l’effondrement de l’environnement.

« Pendant plusieurs décennies, les scientifiques ont constamment mis en garde contre un avenir marqué par des conditions climatiques extrêmes en raison de l’escalade des températures mondiales provoquée par les activités humaines en cours qui libèrent des gaz à effet de serre nocifs dans l’atmosphère », peut-on lire dans le journal. « Malheureusement, le temps est écoulé. »

Dans un communiqué , Christopher Wolf, chercheur postdoctoral à l’Oregon State University et co-auteur principal de l’étude, a fait écho au ton sérieux du document tout en offrant quelques lueurs d’espoir associées, bien sûr, à des stratégies d’atténuation majeures.

« Sans actions qui s’attaquent au problème fondamental du fait que l’humanité tire plus de la Terre que ce qu’elle peut donner en toute sécurité », a déclaré Christopher Wolf, « nous sommes sur la bonne voie vers l’effondrement potentiel des systèmes naturels et socio-économiques et vers un monde avec une chaleur insupportable et des pénuries d’énergie. de la nourriture et de l’eau fraîche.

Dans l’étude, le postdoctorant de l’OSU et ses 11 autres co-auteurs ont inclus de nombreuses données surprenantes montrant qu’en 2023, plusieurs records climatiques ont été battus par des « marges énormes ». Les auteurs ont spécifiquement souligné la saison des incendies de forêt inhabituellement active au Canada cette année et ont déclaré que cela « pourrait indiquer un point de basculement vers un nouveau régime d’incendie », ce qui est sans doute l’une des phrases académiques optimistes les plus effrayantes jamais écrites.

William Ripple, professeur distingué de foresterie à l’OSU et autre auteur de l’étude, a ajouté que cette année a été marquée par des « tendances profondément alarmantes » et qu’il n’est pas encourageant que nous ayons si peu fait pour arranger les choses.

« Nous avons également constaté peu de progrès à signaler dans la lutte de l’humanité contre le changement climatique », a déclaré William Ripple dans le communiqué.

Fossilisé

Comme d’innombrables scientifiques avant eux, les 12 auteurs de l’étude et les milliers de signataires ont pointé du doigt non seulement l’ industrie très polluante des combustibles fossiles , mais également les représentants du gouvernement qui les subventionnent comme l’une des causes profondes de cet effet boule de neige climatique. Selon le document, entre 2021 et 2022, les subventions aux combustibles fossiles ont essentiellement doublé, passant de 531 milliards de dollars à un peu plus de 1 000 milliards de dollars – et cela uniquement aux États-Unis.

« Nous devons changer notre point de vue sur l’urgence climatique et passer d’un problème environnemental isolé à une menace systémique et existentielle », écrivent les auteurs de l’étude. L’abandon des combustibles fossiles et la lutte contre la « surconsommation des riches » sont deux des premières mesures à prendre pour éviter une nouvelle catastrophe avant la fin du XXIe siècle.

https://futurism.com/the-byte/scientists-warn-climate-collapse-2100

La première maison sismique imprimée en 3D du Guatemala, construite en seulement 26 heures

De nos jours, presque tout est imprimé en 3D, alors pourquoi l’architecture devrait-elle faire exception ? De nombreux cabinets d’architectes ont adopté l’impression 3D comme technique privilégiée pour la construction de structures. Et l’architecture imprimée en 3D a véritablement gagné en popularité et en élan. Il s’est tracé une voie dans l’architecture moderne. Et je veux dire, pas étonnant, cela présente une tonne d’avantages ! Il s’agit d’une technique simple, efficace et innovante qui réduit les risques d’erreurs et permet également de gagner du temps. L’impression 3D supprime de nombreuses étapes fastidieuses du processus de construction et le simplifie. Et la société de ciment Progreso s’est associée à COBOD pour construire le premier bâtiment imprimé en 3D au Guatemala.

Concepteur : Progreso x COBOD

Le premier bâtiment imprimé en 3D du Guatemala a récemment été achevé pour résister à l’activité sismique locale, lui permettant ainsi d’être résistant aux tremblements de terre. La structure a été construite en fusionnant des techniques de construction modernes par impression 3D avec l’artisanat local traditionnel, par exemple le toit de chaume. La maison a été construite à l’aide de l’imprimante BOD2 de COBOD, et l’imprimante 3D a extrudé un mélange semblable à du ciment en plusieurs couches à partir de la coque de la structure, selon un plan préplanifié.

Il est intéressant de noter que l’ensemble du processus d’impression et de construction n’a pris qu’un peu plus de 24 heures. 26 heures ont été réparties sur sept jours pour construire la structure, ce qui impliquait de terminer la coque en béton, puis d’ajouter le câblage, la plomberie et les fenêtres avec l’aide d’ouvriers. 

Le toit de la maison est le toit traditionnel que l’on retrouve dans toute la région et il est fait de chaume de palme. Des lattes de bois ont également été ajoutées au bâtiment pour favoriser la ventilation naturelle et créer un environnement spacieux et aéré. Le bâtiment est conçu pour résister à un séisme sévère et puissant !

« Le projet a réussi à prendre des mesures pour valider la viabilité structurelle de l’impression 3D de construction dans une région sujette aux sismiques », indique le communiqué de presse. « Grâce à l’utilisation de l’impression 3D, la maison présente des murs de forme très organique qui seraient autrement extrêmement coûteux, voire impossibles à réaliser avec des blocs de béton, le matériau de construction prédominant dans la région. Les murs en béton imprimés en 3D sont complétés par un toit en feuilles de palmier de type « Rancho ».

Ce type de toit est utilisé depuis des générations en Amérique latine, car il est peu coûteux, offre un confort thermique et est bien adapté aux régions sismiques grâce à son matériau flexible et léger.

La structure occupe 49 m2 et constitue une maison compacte capable de résister à une activité sismique extrême tout en fonctionnant comme une maison entièrement fonctionnelle et équipée.

https://www.yankodesign.com/2023/10/30/meet-guatemalas-first-3d-printed-earthquake-resistant-house-that-was-built-in-just-26-hours/

Ces étiquettes RFID en papier recyclables ont l’air d’un véritable chef-d’œuvre

Les étiquettes RFID passives, comme celles qui sont attachées aux produits dans les magasins pour faciliter le passage en caisse, sont généralement fabriquées à partir d’un mélange de métal et de circuits pour former les principaux éléments de l’étiquette : une micropuce et une antenne tout aussi microscopique. Ces éléments fonctionnent ensemble pour stocker et communiquer des informations à un lecteur RFID situé à proximité, et leur production en masse est relativement bon marché, ne coûtant qu’environ 0,10 dollar de matériaux par étiquette (selon l’International Association of Information Technology Asset Managers en 2021).

Cependant, le coût brut de l’extraction et de la production de grandes quantités de métal et de composants de circuits s’additionne au fil du temps et, en raison de la nature de ces matériaux, les étiquettes RFID passives ordinaires n’ont nulle part où aller – à part la poubelle – une fois qu’elles sont retirées des produits qu’elles sont censées protéger.

Selon PulpaTronics, concepteur d’une étiquette RFID révolutionnaire en papier entièrement recyclé, plus de 12 milliards d’étiquettes RFID sont fabriquées chaque année, souvent à des fins d’utilisation unique, après quoi elles finissent dans les décharges.

Fondée par un groupe de quatre étudiants de l’Imperial College London’s Dyson School of Design Engineering, l’équipe de PulpaTronics fait déjà parler d’elle (et a remporté plusieurs prix dans le domaine de la conception durable) pour son ingénieuse conception d’étiquettes RFID en papier, qui élimine entièrement le métal du processus de fabrication.

Concepteur : Chloe So, Barna Soma Biro, Rui Ma, Jingyan Chen (via PulpaTronics)

Les étiquettes RFID entièrement en papier de PulpaTronics stockent les informations de manière géométrique, en utilisant un laser pour imprimer une « couche conductrice de matériau en carbone » directement sur des matériaux en papier récupérés dans la poubelle de recyclage et dans les ordures ménagères.

Selon l’organisation du prix James Dyson, l’équipe a également expérimenté d’autres matériaux, tels que le bois et le liège, avant d’opter pour le papier. Le résultat : une étiquette RFID deux fois moins chère à produire en série que les autres étiquettes RFID, tout en réduisant de 70 % les émissions de CO2.

Ce qui est intéressant dans la conception de l’équipe, c’est qu’elle a réussi à réinventer chaque partie de l’étiquette RFID, y compris les antennes, sans aucun métal. La forme géométrique de la couche de carbone est ce qui confère à l’étiquette RFID sa conductivité et sa capacité à transmettre des informations à un lecteur situé à proximité.

Si le nouveau modèle d’étiquette de PulpaTronics fait l’objet d’une production de masse, cela pourrait apparemment permettre d’économiser « 20 000 tonnes de CO2 par an » pour 100 000 articles utilisant ce modèle. Quoi qu’il en soit, il s’agit d’une victoire considérable pour l’ingénierie durable, qui prouve une fois de plus qu’il est possible de remplacer le métal et d’autres matériaux rares et non dégradables par des produits de substitution faciles à obtenir.

https://www.yankodesign.com/2023/10/30/these-recyclable-paper-rfid-tags-look-like-a-work-of-magic/

https://iaitam.org/simple-cost-analysis-for-rfid-options-choice-must-fit-the-organizations-needs-and-budget/

https://www.imperial.ac.uk/news/245039/design-engineering-students-secure-victory-venture/

https://www.pulpatronics.com/

https://www.linkedin.com/in/chloe-so/

https://www.linkedin.com/in/bsbiro/

https://www.linkedin.com/in/ruimaa/

Amazon Web Services va lancer un Cloud souverain européen

Amazon Web Services a annoncé mercredi le lancement en Europe d’un « Cloud souverain » (sovereign cloud) destiné aux gouvernements et aux clients des secteurs hautement réglementés.

Ce Cloud souverain stockera les données sur des serveurs situés dans l’Union européenne, et seuls les employés d’AWS résidant dans l’UE contrôleront les opérations et fourniront une assistance, a indiqué la division « Cloud computing » d’Amazon dans un communiqué.

L’Union européenne est à l’avant-garde de la législation en matière de protection de la vie privée et de sécurité, et son organisme de surveillance de la vie privée a lancé l’année dernière une enquête sur l’utilisation par le secteur public de services basés sur l’informatique en nuage, afin de vérifier s’ils respectent ses garanties en matière de protection de la vie privée.

Les entreprises et les administrations utilisent de plus en plus les centres de données des grandes entreprises technologiques sous la forme de nuages publics plutôt que de construire leur propre infrastructure. Microsoft et Oracle ont également lancé leurs versions « cloud » pour les clients gouvernementaux européens.

AWS se lancera d’abord en Allemagne et mettra son service à la disposition de tous les clients européens.

https://www.investing.com/news/stock-market-news/amazon-web-services-to-launch-european-sovereign-cloud-3207836

La puce NorthPole d’IBM imite le cerveau humain pour plus de puissance

La conception de NorthPole s’inspire en partie du cerveau humain

Le laboratoire californien d’IBM Research met au point un prototype de puce baptisé NorthPole, qui s’inspire de l’architecture du cerveau humain. Cette puce promet d’améliorer considérablement l’efficacité des ordinateurs et de produire des systèmes qui ne dépendent pas de l’informatique en nuage.

Il est surprenant de constater à quel point notre monde est lié au passé, ce qui donne lieu à toutes sortes d’énigmes. Si vous regardez un clavier d’ordinateur, vous êtes confronté à un enchevêtrement confus de lettres qui rend la saisie plus difficile. Il s’agit d’un vestige de l’époque des machines à écrire mécaniques, où les concepteurs ralentissaient délibérément la vitesse de frappe afin d’éviter de bloquer le mécanisme.

On peut facilement trouver de nombreux autres exemples. Des ponts ont été construits là où d’anciens gués permettaient de traverser des rivières. Nous appelons encore « téléphones » des appareils qui ne permettent qu’accessoirement des communications vocales. Et certaines personnes mettent encore le lait dans la tasse avant le thé parce que l’inverse faisait craquer la porcelaine bon marché.

Il en va de même pour les ordinateurs. Les gigantesques ordinateurs centraux des débuts étaient un mélange complexe de technologies et la seule façon de les faire fonctionner correctement était de diviser les fonctions telles que le contrôle, la logique et la mémoire en unités distinctes, le système transférant les données d’une unité à l’autre dans le cadre du processus.

La puce NorthPole sur une carte PCIe

Par conséquent, huit décennies plus tard, les ingénieurs continuent à assembler des ordinateurs basés sur cette configuration historique, aujourd’hui connue sous le nom d’architecture von Neumann, d’après le pionnier de l’informatique John von Neumann. Cette architecture a également créé ce que l’on appelle le goulot d’étranglement de von Neumann, causé par tous les déplacements entre les unités.

Selon IBM, le prototype de la puce NorthPole a nécessité deux décennies de développement et a réussi à contourner le goulot d’étranglement de von Neumann grâce à quelques innovations astucieuses. L’une d’entre elles a consisté à baser l’architecture sur le cerveau humain, qui est bien plus économe en énergie que n’importe quel ordinateur, et à créer ce qu’IBM appelle « une faible représentation du cerveau dans le miroir d’une plaquette de silicium ».

Le chef de projet Dharmendra Modha a essentiellement utilisé une architecture d’inférence neuronale qui agit comme des synapses numériques pour combiner ce qui était auparavant des fonctions séparées. Cela a permis aux ingénieurs de déplacer la mémoire sur la puce de traitement elle-même et d’estomper la frontière entre la mémoire et le traitement.

Cette nouvelle architecture n’accélère pas seulement la puce, avec ses 22 milliards de transistors et ses 256 cœurs, la rendant 25 fois plus efficace, mais elle réduit également le gaspillage d’énergie, éliminant le besoin de systèmes de refroidissement élaborés nécessaires pour les systèmes à haute performance.

Actuellement, NorthPole n’est pas une puce à usage général. Une partie de ses améliorations s’est faite au prix d’une spécialisation de ses fonctions. Cependant, il a le potentiel de doubler, voire de quadrupler les opérations, ouvrant ainsi la voie à la création d’un réseau sur puce capable d’effectuer toutes sortes de tâches qui nécessitent aujourd’hui l’accès à d’énormes serveurs en nuage.

En raison de sa conception, NorthPole n’est pas (encore) adapté à l’IA, mais son énorme pouvoir d’inférence ouvre la voie à une grande variété d’applications militaires et civiles, notamment des systèmes indépendants capables de traiter seuls de grandes quantités de données pour la reconnaissance faciale, la classification d’images, le traitement du langage naturel, la reconnaissance vocale et des systèmes de conduite autonome beaucoup plus fiables. En outre, l’amélioration de l’efficacité thermique signifie que la loi de Moore a peut-être bénéficié d’un sursis temporaire, ouvrant la voie à des puces plus petites et plus puissantes.

https://admin.govexec.com/media/embargoed_ibm_research_science_embargo_10.19.23.pdf

https://research.ibm.com/blog/northpole-ibm-ai-chip

Albert Eggstein, l’IA du poulailler, peut désormais traduire le bavardage de vos poules

Vous saurez instantanément comment se sentent vos poules.

Que ce soit pour des raisons liées à l’environnement et au développement durable, à la hausse du prix des œufs ou au fait que la pandémie a profondément changé la vie de nombreuses familles, on estime que plus de 17 millions de foyers américains possèdent aujourd’hui des poules de basse-cour, et que leur nombre augmente rapidement. Désormais, la Smart Coop et son système unique d’intelligence artificielle connu sous le nom d’Albert Eggstein peuvent vous dire exactement ce que vos volailles bavardes se disent entre elles et vous disent.

Ce système s’appuie sur les capacités existantes d’Albert Eggstein, qui permet de surveiller 24 heures sur 24 et 7 jours sur 7 les oiseaux de votre jardin et leur environnement, grâce à deux caméras montées qui offrent un flux vidéo constant depuis le perchoir et le transmettent à votre smartphone par l’intermédiaire de l’application Coop.

Le logiciel de détection sonore « Cluck talk » mesure les décibels et les schémas des gloussements, gazouillis et autres bavardages des oiseaux pour vous indiquer s’ils ont faim, s’ils sont heureux, s’ils couvent, s’ils sont en danger ou s’ils sont impliqués dans un drame classique de l’ordre des coups de bec.

Toutes les données et vidéos recueillies peuvent être résumées dans une fiche hebdomadaire, qui permet aux propriétaires de reconnaître des tendances telles que le retour de prédateurs ou tout autre problème au sein du troupeau. Vous aurez également accès au stockage CloudCluck, qui permet de conserver chaque seconde d’images et de sons pendant 30 jours.

L’équipe espère mettre en place d’autres fonctions de surveillance au cours des six prochains mois, qui permettront de détecter des problèmes de santé souvent faciles à ignorer ; les oiseaux cachent leurs maladies et les signes peuvent donc être très subtils. Cette technologie vous permettra, par exemple, de savoir si l’une de vos poules semble un peu léthargique ou si elle boit moins d’eau depuis un certain temps.

L’équipe de Coop prévoit également de développer une fonctionnalité de télésanté dans l’application, ce qui permettrait de connecter les propriétaires de Coop à un réseau de vétérinaires qui pourraient alors examiner les images recueillies pour intervenir en temps utile.

La « maison intelligente pour poules » a remporté un franc succès auprès des débutants en ornithologie

Les cerveaux amateurs d’oiseaux à l’origine du système sont AJ Forsythe et Jordan Barnes, d’Austin, qui ont passé plus de 10 000 heures à concevoir le poulailler et tous ses gadgets technologiques intelligents. Leur objectif était de créer un produit qui transformerait instantanément les novices en matière d’oiseaux de basse-cour en convertis pour la vie. Ainsi, 56 % de leurs clients n’ont jamais élevé de poules auparavant.

Les néophytes constateront rapidement qu’au-delà de la production d’œufs – la plupart des oiseaux en pondent environ cinq par semaine, en fonction de facteurs tels que la hiérarchie et la météo – les poules sont d’excellents animaux de compagnie. Ce sont des animaux excentriques, étonnamment intelligents et souvent affectueux, qui peuvent vous accompagner jusqu’à dix ans. La politique du troupeau, les drames liés à la hiérarchie et d’autres interactions en font des sujets hilarants et amusants à observer.

Le Smart Coop n’est pas donné, euh, bon marché, avec un premier prix précoce à 1 995 dollars (1885 €) (prix standard de 2 595 dollars) – et uniquement pour les clients américains, pour l’instant. Mais il comprend le poulailler, le parcours de 37 kg, les caméras intelligentes prémontées fonctionnant sur batterie (des unités solaires sont en préparation), la porte automatique préinstallée, les distributeurs de nourriture et d’eau amovibles et les bacs à litière biodégradables sur mesure.

Pour accéder aux fonctions existantes d’Albert Eggstein et à celles qui seront mises en place à l’avenir, vous devez vous abonner au Coop Club, qui coûte 19 dollars de plus par mois.

Bien que la réglementation concernant les poulets de basse-cour se soit assouplie au cours des dernières années, renseignez-vous auprès des autorités locales pour obtenir plus de détails sur des points précis tels que le nombre maximum de têtes de bétail et les restrictions relatives à l’emplacement des poulaillers.

https://www.smart.coop.farm/

NDLR

Je ne sais pas ce qu’il se passe en ce moment avec les poules, mais après des chercheurs japonais qui affirment qu’un nouvel appareil peut traduire ce que disent les poulets (https://infohightech.com/des-scientifiques-affirment-quun-nouvel-appareil-peut-traduire-ce-que-disent-les-poulets/ ) ; nous voici maintenant avec la compréhension du caquètement de nos gallinacés. Décidément, le monde va mal 😊

Un « tapis d’entraînement » magnétique aide les cellules musculaires à se développer et à travailler ensemble

Les chercheurs ont conçu un tapis d’entraînement pour les cellules qui peut aider les scientifiques à se concentrer, au niveau microscopique, sur les effets mécaniques de l’exercice.

Des chercheurs ont créé un tapis de gel contenant des aimants qui simule les forces mécaniques exercées sur les cellules musculaires pendant l’exercice. Ce nouveau « tapis d’entraînement » pourrait aider à tester des traitements pour les personnes souffrant de lésions musculaires et de maladies neuromusculaires, ou à cultiver des muscles artificiels destinés à être utilisés dans des robots souples.

Dans le corps, les cellules communiquent par une combinaison de signaux chimiques, électriques et mécaniques, en particulier pendant l’exercice. Avec les cellules fabriquées en laboratoire, il est difficile de créer un contact mécanique cellule-cellule semblable à la réalité, car cela risque souvent d’endommager les cellules.

Des chercheurs du MIT ont créé un moyen non dommageable de simuler les effets mécaniques auxquels les cellules musculaires squelettiques sont exposées pendant l’exercice. Pour eux, il s’agit d’un tapis d’entraînement pour les cellules.

« Nous voulions découpler les deux principaux éléments de l’exercice – chimique et mécanique – pour voir comment les muscles réagissent uniquement aux forces mécaniques de l’exercice », explique Ritu Raman, auteur correspondant de l’étude.

Les chercheurs se sont tournés vers les aimants pour exposer les cellules musculaires à des forces mécaniques régulières et répétées sans les endommager. En mélangeant des nanoparticules magnétiques disponibles dans le commerce avec une solution de silicone caoutchouteuse, le mélange a été durci pour former une plaque et découpé en barres très fines. Un prototype de tapis a été créé, composé de quatre barres magnétiques légèrement espacées les unes des autres et prises en sandwich entre deux couches d’hydrogel.

Des cellules musculaires ont été placées à la surface du tapis et les cellules circulaires se sont progressivement allongées et ont fusionné avec les cellules voisines pour former des fibres. Sous le tapis de gel, les chercheurs ont placé un aimant externe sur une piste et l’ont programmé pour qu’il se déplace d’avant en arrière.

Les aimants intégrés dans le gel ont réagi en faisant osciller le gel et en générant des forces similaires à celles que les cellules subiraient lors d’un exercice physique réel. Les chercheurs ont « exercé » les cellules pendant 30 minutes par jour pendant 10 jours. Un groupe de cellules musculaires non exercées a servi de contrôle.

« Nous avons ensuite fait un zoom arrière et pris une photo du gel pour constater que ces cellules stimulées mécaniquement étaient très différentes des cellules de contrôle », explique Ritu Raman.

Ils ont constaté que les cellules exercées s’allongeaient et formaient des fibres qui s’alignaient dans la même direction. En revanche, les cellules de contrôle avaient tendance à rester circulaires et à s’aligner de manière désordonnée.

Dans des circonstances normales, les cellules musculaires se contractent en réponse à l’impulsion électrique d’un nerf mais, dans des conditions de laboratoire, cela pourrait endommager les cellules. Les chercheurs ont donc modifié génétiquement les cellules pour qu’elles se contractent en réponse à la lumière bleue.

« Lorsque nous éclairons les muscles, vous pouvez voir que les cellules de contrôle battent, mais certaines fibres battent dans un sens, d’autres dans l’autre, et produisent globalement des contractions très asynchrones », souligne Ritu Raman. « Alors qu’avec les fibres alignées, elles tirent et battent toutes en même temps, dans la même direction.

Les chercheurs affirment que le nouveau « gel d’entraînement » peut être utilisé comme un moyen rapide et non invasif de façonner les fibres musculaires et d’étudier leur réaction à l’exercice, ce qui pourrait permettre d’identifier des thérapies pour aider les personnes à se remettre de blessures musculaires et de troubles neuromusculaires. Les chercheurs prévoient également de cultiver d’autres types de cellules sur le gel afin d’étudier leur réaction à l’exercice.

« Des données biologiques suggèrent que de nombreux types de cellules réagissent à la stimulation mécanique », a déclaré Ritu Raman. « Il s’agit d’un nouvel outil pour étudier l’interaction. »

https://www.cell.com/device/fulltext/S2666-9986(23)00149-7

https://news.mit.edu/2023/wobbly-gel-mat-trains-muscle-cells-work-together-1020

Un ancien rappeur des Fugees affirme que son avocat a perdu son procès à cause de l’IA

Un ancien membre du groupe de rap Fugees affirme que son avocat a raté son procès pour complot parce qu’il a utilisé l’intelligence artificielle.

Comme  le rapporte The Register , le fondateur des Fugee, Prakazrel « Pras » Michel a accusé son ancien avocat de la défense David Kenner d’avoir utilisé l’IA dans le procès fédéral pour complot du rappeur, ce qui l’a conduit à être reconnu coupable de nombreux crimes , notamment celui d’être un agent étranger pour la Chine.

Pour être honnête, le cas de Michel était très bizarre avant même qu’il ne porte l’accusation d’IA contre son ex-avocat. Le rappeur  » Ghetto Superstar  » s’était apparemment transformé en homme politique et homme d’affaires après s’être lancé en solo et s’être lancé dans le cinéma et la télévision au cours de la première décennie des années 2000, pour finalement verser des sommes massives aux efforts de réélection de Barack Obama en 2012 au nom d’entités étrangères – une accusation dont il a été reconnu coupable, mais nie la véracité.

Dans le cadre du projet de réélection d’Obama, Prakzrel Pras Michel a croisé la route du financier malaisien Jho Low , l’investisseur cinématographique du « Loup de Wall Street » qui est toujours en fuite après avoir été accusé de corruption à grande échelle , y compris certaines de celles pour lesquelles Michel a été accusé.

Et maintenant, nous avons une tournure fascinante de l’IA sur ce drame financier résolument old-school.

Dans une requête fortement expurgée déposée devant le tribunal de district de Washington, DC, Pras Michel affirme que David Kenner a utilisé « un programme expérimental d’IA pour rédiger sa plaidoirie finale, qui présentait des arguments frivoles, amalgamait les stratagèmes et ne parvenait pas à mettre en évidence les principales faiblesses » du dossier du gouvernement contre lui.

Aussi fou que cela puisse paraître, le rappeur a des preuves de ses affirmations : un communiqué de presse de mai de la société d’IA EyeLevel, qui citait son avocat et annonçait qu’il avait utilisé l’outil de recherche LitAssist de la société dans le cas de Pras Michel.

« Cela change absolument la donne pour les litiges complexes », a déclaré David Kenner dans le communiqué de presse d’EyeLevel. « Le système a transformé des heures ou des jours de travail juridique en quelques secondes. C’est un aperçu de la manière dont les affaires seront conduites à l’avenir. »

Pras Michel a également allégué dans sa requête que son ex-avocat détenait une « participation financière non divulguée » dans la société d’IA et qu’il « en avait fait l’expérience pendant le procès de Michel afin qu’ils puissent ensuite publier un communiqué de presse faisant la promotion du programme », ce que la requête décrit comme étant « un conflit d’intérêts évident. »

Il a poursuivi en disant que Kenner avait confondu certaines de ses dix accusations et n’avait pas réussi à souligner ce que le rappeur considère comme « l’argument le plus fort et le plus évident : qu’il n’y avait aucune preuve que Michel ou quelqu’un d’autre a agi sous la direction ou le contrôle ».  » du gouvernement chinois. »

Il se passe beaucoup de choses dans cette mise à jour du procès Pras, qui n’est en aucun cas la première fois que l’IA est utilisée dans une procédure judiciaire, mais semble être une nouvelle raison de demander un nouveau procès – sans parler d’un autre argument convaincant de la raison pour laquelle cette technologie n’est peut-être pas prête pour les salles d’audience .

https://futurism.com/the-byte/fugees-rapper-ai-lawyer

Le maire de New-York, Eric Adams, publie le premier plan du genre pour une utilisation responsable de l’intelligence artificielle dans le gouvernement de New York

La ville va développer un cadre pour évaluer les outils basés sur l’IA et se protéger contre les risques, renforcer les connaissances et les compétences au sein de l’administration municipale et soutenir une mise en œuvre responsable.

Dans le cadre de la nouvelle phase du portail MyCity, l’administration Adams pilote le premier chatbot d’IA à l’échelle de la ville pour aider les propriétaires d’entreprises à s’y retrouver dans l’administration.

Le maire de New York, Eric Adams, et le directeur des technologies, Matthew Fraser, ont publié aujourd’hui le plan d’action global de l’administration Adams en matière d’intelligence artificielle, franchissant ainsi une étape importante pour consolider la position de la ville de New York en tant que leader dans l’utilisation responsable des technologies innovantes en matière d’intelligence artificielle (IA).

Ce vaste plan – le premier du genre pour une grande ville américaine – établira un cadre permettant aux agences municipales d’évaluer soigneusement les outils d’IA et les risques associés, d’aider les fonctionnaires municipaux à acquérir des connaissances et des compétences en matière d’IA et de soutenir la mise en œuvre responsable de ces technologies afin d’améliorer la qualité de vie des New-Yorkais.

Intégrant les efforts de l’administration pour adopter des outils d’IA responsables qui peuvent rationaliser et améliorer les services gouvernementaux au sein du portail révolutionnaire MyCity, le maire Adams et le commissaire du département des services aux petites entreprises de la ville de New York, Kevin D. Kim, ont lancé le nouveau site MyCity Business, qui comprend un pilote pour le premier chatbot d’IA à l’échelle de la ville de New York.

S’appuyant sur la première phase de MyCity, lancée en mars pour aider les familles new-yorkaises à accéder à des services de garde d’enfants, MyCity Business mettra en relation les propriétaires d’entreprises et les entrepreneurs en herbe avec des contenus qui les aideront à créer, exploiter et développer des entreprises à New York. Grâce au chatbot d’intelligence artificielle, les chefs d’entreprise pourront plus facilement accéder à des informations fiables provenant de plus de 2 000 pages web de NYC Business.

« Bien que l’intelligence artificielle représente une opportunité unique de mieux servir les New-Yorkais, nous devons être lucides quant aux pièges potentiels et aux risques associés que présentent ces technologies », a déclaré le maire Adams. « Je suis fier de présenter un plan qui trouvera un équilibre essentiel dans le débat mondial sur l’IA – un plan qui permettra aux agences municipales de déployer des technologies qui peuvent améliorer la vie des gens tout en les protégeant contre celles qui peuvent leur nuire.

« Le plan d’action sur l’IA illustre la manière dont l’administration Adams utilise la technologie de demain pour mieux servir les New-Yorkais aujourd’hui », a déclaré la première adjointe au maire, Sheena Wright. « Ce cadre aidera les agences municipales à tirer parti du potentiel de l’IA pour mieux fournir des services vitaux tout en protégeant la vie privée des New-Yorkais et leurs préoccupations en matière de partialité. Je suis impatiente de voir comment le chatbot MyCity AI libère le potentiel des propriétaires de petites entreprises de notre ville, leur permettant de se concentrer sur ce qu’ils font le mieux – développer leurs entreprises – tandis que le gouvernement joue son rôle en facilitant la réalisation des tâches.« 

« L’ajout du site des entreprises au portail MyCity est une étape importante pour rendre l’administration municipale accessible à tous », a déclaré Maria Torres-Springer, adjointe au maire chargée du logement, du développement économique et de la main-d’œuvre. « Grâce à la création de cet outil simple et convivial, nous supprimons les obstacles à l’accès aux ressources de la ville qui peuvent avoir un impact positif sur les petites entreprises de New York. Je suis ravie de voir comment le site commercial du portail MyCity peut aider les propriétaires d’entreprises et j’ai hâte de voir ce que MyCity nous réserve d’autre ».

« Avec la création du Bureau de la technologie et de l’innovation, le maire Adams a établi une nouvelle norme pour permettre une adoption plus intelligente de la technologie au sein de l’administration municipale », a déclaré le directeur de la technologie, M. Fraser. « Je suis fier de mes collègues de l’OTI qui ont proposé une approche réfléchie qui guidera la façon dont la ville de New York soutient ses agences à travers une adoption responsable et façonnera la façon dont les villes du monde entier abordent l’IA. »

« Le site commercial du portail MyCity change la donne pour les petites entreprises de la ville », a déclaré Kim, commissaire de la SBS. « Les propriétaires de petites entreprises vont non seulement gagner du temps et éviter les frustrations grâce au site rationalisé, mais aussi se connecter plus facilement aux ressources qui peuvent les aider à faire passer leur entreprise au niveau supérieur. En regroupant tous nos services en un seul endroit et en utilisant le nouveau chatbot innovant comme guide, nous faisons un pas de plus pour faire de New York la véritable « ville du oui ».

L’IA englobe une grande variété de technologies qui utilisent des données pour faire des prédictions, des déductions, des recommandations, des classements ou d’autres décisions. Si l’IA offre des avantages potentiels considérables, cette technologie émergente comporte également des risques, comme celui de fournir des résultats inexacts ou involontaires et, dans certains cas, de présenter des schémas de partialité et de discrimination.

Le plan d’action de la ville de New York en matière d’intelligence artificielle présente un ensemble d’actions progressives que la ville entreprendra pour aider les agences à évaluer les risques et à déterminer si un outil est ou non la bonne technologie pour obtenir de meilleurs résultats positifs pour les New-Yorkais. Le plan d’action représente les connaissances, l’expertise et les contributions de 50 employés municipaux issus de 18 agences, ainsi que les points de vue de l’industrie, du monde universitaire et de la société civile.

Pour plus d’information et le reste de l’article :

https://www.nyc.gov/office-of-the-mayor/news/777-23/mayor-adams-releases-first-of-its-kind-plan-responsible-artificial-intelligence-use-nyc#/0

https://www.nyc.gov/assets/oti/downloads/pdf/reports/artificial-intelligence-action-plan.pdf

https://mycity.nyc.gov/s/?LanguageCode=en_US&language=en_US&utm_medium=email&utm_name=&utm_source=govdelivery

https://nyc-business.nyc.gov/nycbusiness/?utm_medium=email&utm_name=&utm_source=govdelivery

Google défendra les utilisateurs de systèmes d’intelligence artificielle générative contre les plaintes pour violation des droits d’auteur

Google a déclaré qu’il défendrait les utilisateurs de systèmes d’intelligence artificielle générative dans ses plateformes Google Cloud et Workspace s’ils étaient accusés de violation de la propriété intellectuelle, rejoignant ainsi Microsoft, Adobe et d’autres entreprises qui ont pris des engagements similaires.

Les grandes entreprises technologiques comme Google investissent massivement dans l’IA générative et s’empressent de l’intégrer dans leurs produits. D’éminents écrivains, illustrateurs et autres détenteurs de droits d’auteur ont déclaré dans plusieurs actions en justice que l’utilisation de leur travail pour former les systèmes d’IA et le contenu créé par ces systèmes violaient leurs droits.

« À notre connaissance, Google est la première entreprise du secteur à proposer une approche globale et double de l’indemnisation, qui couvre spécifiquement les deux types de réclamations, a déclaré un porte-parole de l’entreprise.

Google a déclaré que sa nouvelle politique s’applique aux logiciels, y compris à sa plateforme de développement Vertex AI et au système Duet AI, qui génère du texte et des images dans les programmes Google Workspace et Cloud. Le communiqué de presse ne mentionne pas Bard, le programme de chatbot d’IA générative de Google, plus connu.

L’entreprise a également précisé que l’indemnisation ne s’applique pas si les utilisateurs « créent ou utilisent intentionnellement les résultats générés pour enfreindre les droits d’autrui ».

La nouvelle vague d’actions en justice concernant l’IA générative a généralement visé les entreprises propriétaires des systèmes, dont Google, et non les utilisateurs finaux.

Les défendeurs de l’IA ont déclaré que l’utilisation de données d’entraînement extraites de l’internet pour entraîner leurs systèmes est considérée comme un usage loyal en vertu de la loi américaine sur le droit d’auteur.

https://www.reuters.com/technology/google-defend-generative-ai-users-copyright-claims-2023-10-12/

https://www.reuters.com/legal/litigation/google-hit-with-class-action-lawsuit-over-ai-data-scraping-2023-07-11/

Amazon annonce aux managers qu’ils peuvent désormais licencier les employés qui ne viennent pas au bureau 3 fois par semaine

– Cette semaine, Amazon a communiqué aux managers des directives actualisées concernant le retour au bureau.

– Ces derniers sont désormais autorisés à licencier les employés qui ne respectent pas les règles d’Amazon en matière de retour au bureau.

– Amazon demande à la plupart de ses employés de se rendre au bureau trois fois par semaine.

Amazon donne désormais aux managers une certaine marge de manœuvre pour licencier efficacement les employés qui ne respectent pas l’obligation de se rendre au bureau trois fois par semaine.

C’est ce qui ressort d’une mise à jour des directives mondiales à l’intention des managers sur la politique de retour au bureau d’Amazon. Amazon a partagé les directives et les points de discussion des managers par le biais d’un portail interne en début de semaine.

Les directives indiquent aux managers qu’ils doivent d’abord avoir une conversation privée avec les employés qui ne respectent pas l’obligation de travailler trois fois par semaine. Ils doivent ensuite documenter la discussion dans un courriel de suivi. Si l’employé continue de refuser de venir, le responsable doit organiser un autre entretien et, si nécessaire, prendre des mesures disciplinaires pouvant aller jusqu’au licenciement.

« Si l’employé ne fait pas preuve d’une assiduité immédiate et soutenue après la première conversation, les responsables doivent alors mener une discussion de suivi dans un délai raisonnable (en fonction de la situation de l’employé, environ 1 à 2 semaines). Cette conversation doit 1) souligner que le retour au bureau 3+ jours par semaine est une exigence de leur travail, et 2) expliquer que le non-respect continu sans raison légitime peut conduire à des mesures disciplinaires, pouvant aller jusqu’au licenciement », indiquent les lignes directrices.

Le fait de donner aux cadres la possibilité de licencier les employés qui ne respectent pas les règles est la mesure la plus sévère prise par Amazon concernant sa politique de retour au bureau.

Annoncée pour la première fois en février, la procédure de retour au bureau d’Amazon a été exceptionnellement controversée, plus de 30 000 employés ayant signé une pétition interne et de nombreux autres ayant quitté l’entreprise au début de l’année pour s’y opposer. Les employés ont exprimé leur frustration parce qu’ils ont été embauchés en tant que travailleurs à distance pendant la pandémie et qu’ils considèrent le mandat actuel comme un changement par rapport à une politique qui permettait aux dirigeants individuels de déterminer comment leurs équipes travaillaient.

En février, Amazon a déclaré que les employés de l’entreprise devraient venir au bureau au moins trois fois par semaine à partir du mois de mai. En juillet, l’entreprise a redoublé d’efforts en demandant aux employés éloignés de s’installer près des « hubs » où se trouvaient la plupart des membres de leur équipe.

Ceux qui refusaient de déménager ou de trouver une autre équipe qui réponde à leurs besoins se voyaient proposer un package de « démission volontaire ». En septembre, Amazon a commencé à communiquer aux employés les relevés de présence individuels, ce qui constitue un changement par rapport à la politique précédente qui consistait à ne conserver que des données anonymes.

En août, le PDG d’Amazon, Andy Jassy, a déclaré aux employés que les choses n’allaient pas s’arranger pour ceux qui s’opposaient à l’obligation d’assiduité au bureau. La confusion n’a fait que croître lorsqu’un haut responsable d’Amazon Cloud a déclaré le mois dernier à son équipe qu’il s’attendait à ce que le processus de retour au bureau prenne jusqu’à trois ans.

Dans un courriel, Rob Munoz, porte-parole d’Amazon, a déclaré que l’entreprise constatait « plus d’énergie, de connexion et de collaboration » grâce à la présence plus fréquente de la grande majorité des employés au bureau. Il a ajouté que la politique de relocalisation d’Amazon affectait un « pourcentage relativement faible de notre équipe » et que les exceptions au mandat de retour au bureau seraient faites « au cas par cas ».

« Comme c’est le cas pour toutes nos politiques, nous attendons de notre équipe qu’elle les respecte et nous prendrons les mesures appropriées si quelqu’un choisit de ne pas le faire », a déclaré M. Munoz dans un communiqué.

Les points de discussion scénarisés d’Amazon pour les managers

Dans les lignes directrices, Amazon encourage les cadres à « supposer une intention positive » et à « prendre des décisions de haut niveau » concernant des situations individuelles, par exemple en vérifiant si les employés ont manqué les obligations de présence parce qu’ils sont en congés payés ou chez eux pour cause de maladie. Avant chaque réunion, les responsables sont invités à « se préparer » en examinant les données relatives au badge de l’employé et en s’entraînant à l’avance sur ce qu’ils veulent dire.

Les lignes directrices fournissent également des points de discussion de base pour les managers, qui réitèrent de nombreuses déclarations publiques de l’entreprise concernant le retour au bureau. Les managers sont invités à souligner que le fait de travailler ensemble dans un même lieu « favorise la croissance et le développement individuels » et que les employés sont « beaucoup plus susceptibles de comprendre notre culture unique » lorsque c’est le cas. Avant de demander à un employé pourquoi il ne vient pas régulièrement au bureau, les managers sont encouragés à dire que « cela peut être un ajustement » et qu’ils « veulent comprendre votre situation ».

Selon les lignes directrices, les managers sont invités à suivre une procédure en trois étapes lorsqu’ils traitent avec un employé qui ne remplit pas les conditions de retour au bureau. La première étape consiste en une conversation privée avec l’employé, au cours de laquelle les responsables « cherchent à comprendre et à se documenter ».

Si le non-respect persiste, les responsables doivent organiser des entretiens de suivi dans les deux semaines qui suivent, au cours desquels ils doivent renforcer la politique de présence trois fois par semaine et expliquer les mesures disciplinaires possibles, qui peuvent aller jusqu’au « licenciement ». La dernière étape consiste à faire appel à un représentant des ressources humaines qui peut remettre à l’employé un avertissement écrit ou d’autres mesures, qui peuvent « se terminer par un licenciement ».

Amazon a également partagé l’exemple suivant de modèle de documentation à l’intention des responsables qui doivent organiser des réunions de suivi avec les employés qui refusent de venir au bureau régulièrement. Les managers des pays autres que les États-Unis sont invités à consulter leur partenaire RH « car le modèle varie d’un pays à l’autre ».

https://www.businessinsider.com/amazon-lets-managers-terminate-employees-return-to-office-2023-10?r=US&IR=T

Selon un document interne, Microsoft s’apprête à faire d’Amazon un client de ses outils cloud 365 dans le cadre d’un méga-deal d’un milliard de dollars.

– Un document interne de Microsoft montre que l’entreprise se prépare à un énorme accord avec Amazon sur les outils 365.

– Amazon a acheté plus d’un million de postes pour la suite 365 de Microsoft, selon le document.

– Amazon s’est engagé à verser 1 milliard de dollars sur 5 ans, selon le document.

Microsoft se prépare à faire d’Amazon un client majeur de ses outils de productivité 365 Cloud, un mégadeal qui transformerait des rivaux amers en partenaires commerciaux, selon un document interne et une personne au fait de la situation.

Le géant du commerce électronique s’est engagé à verser plus d’un milliard de dollars sur cinq ans pour obtenir plus d’un million de licences Microsoft 365, selon le document de Microsoft examiné par Insider. Ces postes devraient être utilisés à la fois par les employés d’Amazon et par ceux qui travaillent en première ligne, a précisé cette personne.

Amazon utilise une version locale, sur site, des produits Office de Microsoft, mais prévoit de passer à la suite d’outils de productivité dans le Cloud Microsoft 365, a expliqué la personne. Ces personnes ont demandé à ne pas être identifiées pour discuter de sujets internes.

Amazon devrait commencer à installer les nouveaux systèmes au début du mois de novembre. C’est à peu près à cette période que Microsoft lance une nouvelle version de sa suite d’applications 365 avec de nouvelles capacités d’intelligence artificielle. Le déménagement complet des employés d’Amazon devrait avoir lieu au début de l’année 2024, a précisé cette personne.

Une opération d’une telle ampleur nécessite une planification importante et l’allocation de ressources dans le Cloud. Des groupes au sein des organisations Office et de sécurité de Microsoft commencent à s’agrandir pour répondre à la demande, selon la personne qui connaît bien le sujet.

Cette décision serait radicale pour Amazon et constituerait une victoire majeure pour Microsoft. Les deux entreprises sont d’âpres rivales et travaillent rarement ensemble ou se font des affaires à une telle échelle.

Une personne connaissant bien les opérations d’Amazon a déclaré que l’entreprise était restée à l’écart de la version « cloud » des produits 365 de Microsoft parce qu’elle ne souhaitait pas auparavant économiser quoi que ce soit sur le « cloud » d’un concurrent. Microsoft et Amazon ont refusé de faire des commentaires lorsqu’ils ont été contactés par Insider mardi.

L’un des avantages potentiels pour Amazon est que les employés auraient des alternatives aux produits internes tels que WorkDocs et Chime, qui ne sont pas très populaires. Amazon a essayé d’offrir des outils de productivité basés sur le cloud à d’autres clients professionnels, mais ces services n’ont pas rencontré un grand succès.

https://www.businessinsider.com/microsoft-prepares-amazon-customer-365-cloud-tools-2023-10?r=US&IR=T

Une prothèse peu coûteuse conçue par des étudiants remplace les doigts manquants des amputés

Le destinataire du prototype Lunet utilise l’appareil pour saisir une balle en mousse

Les prothèses qui remplacent les doigts perdus sont généralement des appareils complexes et coûteux, dont le coût n’est souvent pas couvert par l’assurance médicale. Le Lunet conçu par les étudiants, en revanche est simple et peut être réalisé à partir de plans open source.

David Edquilang a eu l’idée alors qu’il était encore étudiant de premier cycle au Gerald D. Hines College of Architecture and Design de l’Université de Houston. Lui et son mentor, le professeur Jeff Feng souhaitait créer une aide robuste, économique et portable pour une femme qui a perdu trois de ses doigts à cause d’engelures.

La prothèse imprimée en 3D qui en résulte (qui a remporté un prix Red Dot : Luminary 2023) est entièrement composée d’acide polylactique et de plastiques polyuréthanes thermoplastiques.

Il comporte cinq composants principaux : une plaque à main qui passe sur le dos de la main, un bracelet qui est utilisé pour maintenir la plaque à main en place et trois doigts qui s’insèrent dans les supports de la plaque – aucun adhésif ni outil spécial n’est requis pour assembler l’appareil.

Ce diagramme montre comment le Lunet fonctionne avec les moignons de doigts existants de l’utilisateur

Chacun des doigts est composé de quatre sections articulées (reliées les unes aux autres via des broches en plastique), ainsi que d’une barre de liaison interne qui s’étend sur toute la longueur du doigt, de la base à la pointe. Cet agencement forme un mécanisme de type liaison croisée à quatre barres qui a été modifié pour inclure une cinquième barre.

Chaque doigt est également relié à l’un des moignons résiduels via un anneau situé en bas. Lorsque ce moignon est déplacé de haut en bas par l’utilisateur, son doigt prothétique se déplace en conséquence vers le haut et se redresse, ou descend et s’enroule vers l’intérieur. De cette manière, le Lunet peut être utilisé pour saisir et libérer des objets.

Et surtout, chaque doigt peut se plier légèrement vers l’arrière par rapport à la plaque de la main, lui permettant de fléchir plutôt que de se casser sous la pression.

Le Lunet peut être fabriqué avec n’importe quel nombre ou combinaison de doigts

David Edquilang dit qu’une version affinée des plans du Lunet sera probablement disponible sur son site Internet d’ici décembre. Et oui, l’appareil peut être fabriqué avec n’importe quel nombre de doigts, selon les besoins du destinataire.

« J’ai conçu Lunet pour qu’il soit extrêmement flexible en termes de modularité et de configurabilité », explique-t-il. « Il peut être configuré pour s’adapter aux dimensions anatomiques de n’importe quelle personne amputée et à n’importe quelle combinaison de doigts qu’elle pourrait avoir perdus. Il peut s’agir d’un à quatre doigts, quels que soient les doigts. »

Et si vous vous posez la question, le mot « Lunet » fait référence à une petite lune, qui orbite autour d’une planète de la même manière que les doigts du Lunet gravitent partiellement autour des articulations résiduelles des doigts de l’utilisateur.

https://uh.edu/news-events/stories/2023/october-2023/10132023-recent-uh-graduate-develops-3d-printable-prostheses-restore-amputees-finger-mobility.php

Un bonnet potentiellement salvateur permet d’évaluer les AVC en route vers l’hôpital

Le dispositif utilise un réseau d’électrodes pour obtenir des lectures EEG dans les ambulances.

Lorsqu’une personne est victime d’un accident vasculaire cérébral (AVC), il convient d’en déterminer la gravité le plus rapidement possible. Un nouveau bonnet expérimental de lecture des ondes cérébrales a été créé dans cette optique, car il permet d’évaluer les accidents vasculaires cérébraux avant même que le patient n’arrive à l’hôpital.

Conçu par une équipe de scientifiques néerlandais de l’Amsterdam UMC (University Medical Centers), le dispositif portable d’EEG (électroencéphalogramme) est destiné à être utilisé dans les ambulances, sur les patients ayant subi un accident vasculaire cérébral ischémique – c’est-à-dire le type d’accident vasculaire cérébral le plus courant.

Sur la base des relevés d’ondes cérébrales obtenus à l’aide de l’appareil, il est possible de déterminer si le vaisseau sanguin cérébral obstrué est gros ou petit.

Il s’agit d’un élément important, car si le vaisseau est gros, le patient doit être transporté dans un hôpital spécialisé où le caillot peut être enlevé chirurgicalement. Si le vaisseau bloqué est plus petit, le patient peut être transporté dans un hôpital ordinaire et mis sous traitement anticoagulant.

Le bonnet a été testé dans 12 ambulances néerlandaises entre 2018 et 2022 – sur plus de 400 patients – et aurait permis de « reconnaître avec une grande précision les patients souffrant d’un accident vasculaire cérébral ischémique important. » Il est maintenant commercialisé par la société dérivée TrianecT.

« Lorsqu’il s’agit d’un accident vasculaire cérébral, le temps est littéralement le cerveau », a déclaré le neurologue Jonathan Coutinho, l’un des inventeurs de l’appareil. « Plus tôt nous commençons le bon traitement, meilleurs sont les résultats. Si le diagnostic est déjà clair dans l’ambulance, le patient peut être dirigé directement vers le bon hôpital, ce qui permet de gagner un temps précieux. »

https://www.amsterdamumc.org/en/spotlight/smart-brain-wave-cap-recognizes-stroke-before-the-patient-reaches-the-hospital.htm

https://trianect.com/

https://trianect.com/news/breaking-electra-stroke-study-publication-in-neurology

Adobe lance le premier matériau qui change de motif en temps réel

Le projet Primrose marque le début d’une nouvelle façon d’emballer la mode

L’entreprise pionnière de l’édition d’images numériques a dévoilé une nouvelle orientation surprenante avec le projet Primrose, qui présente des matériaux capables de changer de couleur et de motif en temps réel.

Huit ans après que le monde s’est divisé sur la question d’une robe bleu/noir ou blanc/or, Adobe annonce qu’il est possible d’être les deux à la fois. Avec des modules de diffusion de lumière réfléchissants sur des paillettes surdimensionnées pour créer un écran numérique portable, ce matériau souple et à faible consommation d’énergie pourrait transformer la mode.

« Le projet Primrose, présenté au salon MAX sous la forme d’une robe interactive, rend cela possible grâce à des textiles portables et flexibles, non émissifs, qui permettent à une surface entière d’afficher du contenu créé avec Adobe Firefly, Adobe After Effects, Adobe Stock et Adobe Illustrator », a déclaré l’équipe de communication d’Adobe.

Dévoilée la semaine dernière lors de l’événement Adobe MAX 2023 à Los Angeles, cette technologie portable a été présentée par Chirstine Dierk, qui faisait partie de l’équipe ayant conçu ce matériau futuriste.

Le fonctionnement exact de cette technologie dépend à la fois de la réflectivité du matériau et de sa composition. Chaque paillette de la robe agit comme un écran miniature fait de matériaux intelligents, permettant à la personne qui la porte d’afficher différents motifs qu’elle a créés et qui peuvent même s’animer en temps réel.

Bien qu’il en soit encore au stade de la preuve de concept, le projet Primrose présente un grand potentiel dans des domaines aussi vastes que l’habillement militaire, la publicité et, bien sûr, la mode.

Bien qu’il puisse sonner le glas des panneaux sandwich, Adobe vise des matériaux au-delà des podiums, en envisageant le potentiel d’utilisation de ce matériau dans l’ameublement et la décoration.

https://research.adobe.com/publication/project-primrose-reflective-light-diffuser-modules-for-non-emissive-flexible-display-systems/

GM+Honda+Cruise préparent le lancement de taxis sans conducteur au Japon en 2026

Le Cruise Origin est un taxi sans conducteur pouvant accueillir six personnes face à face.  Toutes les interactions entre le véhicule, le service et le client seront facilitées via une application pour smartphone

Cruise, General Motors (GM) et Honda ont annoncé leur intention de créer une coentreprise qui lancera un service de covoiturage sans conducteur au Japon début 2026, en attendant les approbations réglementaires.

Le nouveau service, nommé Cruise Origin, sera spécialement conçu comme un service de covoiturage sans conducteur, récupérant les clients à un endroit spécifié et les conduisant à leur destination. Les clients utiliseront une application dédiée sur leur smartphone pour effectuer l’ensemble du processus, de l’appel au paiement.

Le Cruise Origin est un véhicule autonome sans siège conducteur ni volant. Il dispose d’un vaste espace cabine qui peut être aussi privé qu’un véhicule personnel et permet à six personnes de voyager simultanément, face à face.

Ce service de covoiturage sans conducteur visera à offrir un tout nouveau type d’expérience de mobilité au Japon et ciblera un large éventail de clients, notamment des hommes d’affaires, des familles, des visiteurs et bien plus encore.

Les options de transport évoluent depuis des décennies en raison du déploiement des sociétés de covoiturage et l’introduction en 2026 de taxis sans conducteur de nouvelle génération devrait accélérer la diversité des choix.

Le service de covoiturage sans conducteur débutera dans le centre de Tokyo début 2026, utilisant dans un premier temps « des dizaines de Cruise Origins », et prévoit ensuite « de s’étendre à une flotte de 500 Cruise Origins » dans un bref délai. La société prévoit ensuite d’étendre et d’étendre son service à des zones situées en dehors du centre de Tokyo.

L’entreprise « s’efforcera d’offrir une nouvelle valeur de mobilité, tout en contribuant également à résoudre les problèmes sociétaux auxquels le Japon est confronté, tels que la pénurie de chauffeurs de taxi et de bus », selon un bref communiqué publié aujourd’hui.

Le « Cruise Origin » est autonome, et sans conducteur ni volant, il permet d’avoir une cabine beaucoup plus grande avec des sièges en vis-à-vis pouvant accueillir jusqu’à six personnes.  Le covoiturage n’est pas obligatoire, des réunions privées sont donc également possibles.

Le Cruise Origin sera présenté pour la première fois sur le stand Honda du Japan Mobility Show 2023, qui débute le 28 octobre à Tokyo. Le Japan Mobility Show était autrefois connu sous le nom de Tokyo Motor Show.

https://global.honda/en/newsroom/news/2023/c231019aeng.html

Le système de stockage de données en verre de Microsoft sauvegarde des téraoctets pendant 10 000 ans

Ce morceau de verre de la taille d’un dessous de verre, qui pourrait être l’avenir des données d’archives, contient le film Superman de 1978 de Warner Bros.

Imaginez que vous soyez un explorateur, que vous ouvriez une tombe vieille de 10 000 ans, et que vous découvriez un artefact ancien d’une valeur inestimable. Nos descendants lointains pourraient bien avoir ce plaisir, grâce à une chambre forte mondiale de la musique qui devrait être construite en Norvège et qui sera équipée du projet Silica de Microsoft, un nouveau support de stockage de données résistant qui ne vous abandonnera jamais.

On dit souvent qu’une fois que quelque chose est sur l’internet, c’est pour toujours, et que même si vous l’effacez, il persistera dans un serveur quelque part. Mais c’est manifestement faux – il suffit d’essayer de retrouver sa vieille page MySpace qui fait froid dans le dos.

Même le centre de données le plus sécurisé est vulnérable aux catastrophes environnementales de plus en plus fréquentes et graves provoquées par le changement climatique. Nombreux sont ceux qui perdront leurs données en cas de coupure de courant de longue durée, d’impulsion électromagnétique à grande échelle provenant d’une attaque ou, pire encore, du soleil. Même dans le meilleur des cas, les supports de stockage physique tels que les Blu-Ray, les bandes d’archives, les disques durs et même les disques durs à semi-conducteurs se dégraderont au fil des décennies.

Pour s’assurer que notre histoire perdure plus longtemps, Microsoft a expérimenté le stockage de données sur du verre dans le cadre de ce qu’elle appelle le projet Silica. En 2019, l’entreprise a fait la démonstration de cette technologie dans le cadre d’un partenariat avec Warner Bros en inscrivant le film Superman de 1978 sur une plaque en verre de silice et en le lisant en retour.

La plaque, qui ne mesure que 75 x 75 mm et 2 mm d’épaisseur, pouvait contenir jusqu’à 75,6 Go et restait lisible même après avoir été rayée, cuite, bouillie, passée au four à micro-ondes, inondée et démagnétisée.

Quelques années plus tard, il semble que Microsoft ait encore amélioré le système. La capacité de stockage a été multipliée par plus de 100, pour atteindre plus de 7 To, et l’entreprise a fait passer la durée de vie annoncée de 1 000 ans à 10 000 ans, ce qui est énorme.

Microsoft a également montré comment fonctionneraient des archives basées sur cette technologie. Des milliers de plaques de verre, soigneusement cataloguées, s’alignent sur les étagères d’une bibliothèque, où elles peuvent attendre leur tour pendant des siècles ou des millénaires. Lorsque quelqu’un a besoin de récupérer un élément de données, des robots se déplacent sur des rails situés sur les étagères jusqu’au bon endroit, saisissent la diapositive requise et la ramènent au lecteur.

En interne, Microsoft prévoit de mettre en œuvre ce type de système dans ses centres de données Azur, mais elle travaille également avec d’autres entreprises. Une société de capital-risque appelée Elire a annoncé son intention de construire une chambre forte mondiale pour la musique à Svalbard, en Norvège, que vous reconnaîtrez peut-être comme le siège de la chambre forte mondiale pour les semences. Ces archives auditives sont destinées à sauvegarder le « patrimoine musical » pour les générations futures, depuis les opéras classiques jusqu’à la musique pop moderne en passant par la musique autochtone, selon les entreprises.

Aussi intrigante que soit l’idée, nous devons admettre qu’elle ressemble plus à un coup de publicité qu’à un acte sincère de préservation. Même si les données sont sécurisées, les robots sont-ils les nouveaux points de défaillance ? Qu’est-ce qui les protège des incendies, des inondations, des impulsions électromagnétiques et de toutes les autres menaces ? Qu’en est-il des lecteurs, qui sont de délicats lasers pilotés par des algorithmes ? Selon toute vraisemblance, les explorateurs qui, en l’an 12 000, tomberaient sur les vestiges du Global Music Vault se contenteraient de les exposer dans un musée comme une collection de sous-verres en cristal.

Mais ce stockage de données en verre présente des avantages à (beaucoup) plus court terme. Tout d’abord, il permettrait de réduire les énormes factures d’électricité que les centres de données actuels doivent payer pour maintenir l’endroit frais et en ligne – une fois que ces plaques sont écrites, elles sont stables à la température ambiante et n’ont pas besoin d’énergie pour conserver leurs données. De plus, les entreprises n’auront plus besoin de perdre du temps, de l’énergie et de l’argent à transférer des données à partir de disques ou de bandes défectueux tous les deux ou trois ans.

L’équipe du projet Silica indique qu’il reste encore trois ou quatre étapes de développement à franchir avant que la technologie ne soit prête à être utilisée commercialement. L’équipe décrit le système dans la vidéo ci-dessous.

https://unlocked.microsoft.com/sealed-in-glass/

https://www.microsoft.com/en-us/research/project/project-silica/overview/

Où sont toutes les voitures à énergie solaire ? 

Récolter l’énergie solaire pourrait soulager notre anxiété en matière d’autonomie avec un véhicule électrique.

Si vous doutez qu’une voiture puisse absorber beaucoup d’énergie solaire, essayez de vous asseoir dans une voiture après qu’elle ait chauffé pendant un moment sur un parking. Qu’ils soient garés ou sur la route, nos véhicules passent beaucoup de temps au soleil. Alors pourquoi n’en tirent-ils pas davantage d’énergie ?

L’énergie solaire ambiante absorbée lors des déplacements domicile-travail pourrait potentiellement fournir juste assez d’énergie pour éviter de devoir s’arrêter pour recharger. Mais jusqu’à présent, l’idée n’a pas fonctionné. Toyota a testé un toit solaire comme complément supplémentaire de 600 dollars à la Prius Prime, mais l’option a reçu des critiques mitigées de la part des testeurs de MotorTrend . Lightyear et Sono Motors, sociétés de véhicules électriques solaires en Europe, se remettent de crises de faillite plus tôt cette année.

Ce ne sont que des problèmes de croissance, explique Miguel Brito , professeur agrégé à l’Institut Dom Luiz au Portugal et expert en infrastructure et technologie de l’énergie solaire. Les voitures entièrement alimentées à l’énergie solaire ne sont pas réalistes, dit-il, mais les véhicules électriques qui utilisent des cellules solaires pour recharger leur énergie stockée pourraient être un bon choix. Une telle technologie d’assistance solaire pourrait alléger la pression sur le réseau électrique à mesure que de plus en plus de véhicules abandonnent leurs habitudes en matière d’essence.

« Au lieu de recharger une fois par semaine, en moyenne, vous pourriez recharger toutes les deux semaines », explique-t-il. « Cela signifie que la même infrastructure est capable d’accueillir environ deux fois plus de voitures. »

La technologie d’assistance solaire est particulièrement sensible au poids qu’une voiture doit transporter, explique Peter Pudney , professeur agrégé de mathématiques industrielles et appliquées à l’Université d’Australie du Sud. Il est lui-même sensible à ce sujet car il préside le comité technique du Bridgestone World Solar Challenge , qui met les ingénieurs au défi depuis 1987 de concevoir des véhicules ultralégers capables de parcourir le désert australien uniquement grâce à l’énergie solaire. Le concours 2023 se déroulera du 22 au 29 octobre.

« Les cellules photovoltaïques utilisées sur les voitures solaires sont les mêmes que celles utilisées pour les panneaux solaires sur le toit, [mais] en raison de l’espace limité disponible sur le toit d’un véhicule, les cellules ayant le rendement disponible le plus élevé sont normalement choisies », explique Peter Pudney. . « Au lieu de nous concentrer sur la manière d’augmenter l’énergie générée par les cellules photovoltaïques des voitures, nous devrions chercher à réduire l’énergie nécessaire au déplacement des personnes. Utiliser 1 à 2 tonnes de machines pour déplacer une personne de 80 kilos est très inefficace.

Il note que les voitures de course solaires ne pèsent qu’une fraction de ce poids, soit environ 150 kg. D’autres options de mobilité, comme les vélos électriques, sont encore plus légères.

Peter Pudney dit que les concepteurs de véhicules électriques à énergie solaire devront également tenir compte de la forme des cellules solaires. La plupart des cellules solaires sont conçues comme une surface plane afin de capter un maximum de lumière solaire, mais les véhicules sont conçus avec des toits en pente pour améliorer l’aérodynamisme.

Pourtant, même avec ces écarts de conception, une analyse présentée en 2021 lors de la 2e conférence internationale de l’IEEE sur l’énergie électrique et les systèmes énergétiques a révélé que les véhicules électriques simulés pouvaient charger leurs batteries à l’aide de panneaux solaires montés sur le corps avec une efficacité de 50 %.

Pour étudier la quantité de lumière solaire que ces véhicules électriques à énergie solaire pourraient recevoir dans des scénarios réels, Miguel Brito et ses collègues ont publié un article le mois dernier dans la revue Progress in Photovoltaics pour étudier comment les ombres des grands immeubles ou des arbres de la ville pourraient affecter ces véhicules en milieu urbain.

Dans ce travail, lui et ses collègues ont utilisé des modèles de 100 environnements urbains pour simuler l’ombre quotidienne de villes de style américain, disposées en grille, et de villes de style européen, qui s’étendent à partir d’un point central. Ils ont également équipé les bus de cellules solaires pour recueillir des données expérimentales à des fins de comparaison. Brito affirme que l’équipe a trouvé des niveaux élevés de concordance entre leurs deux ensembles de données et a signalé que l’ombrage urbain réduisait l’autonomie de l’énergie solaire d’environ 25 %.

Même si cela peut paraître beaucoup, Miguel Brito reste optimiste quant à ce que cela signifie pour le déploiement d’un plus grand nombre de véhicules électriques à énergie solaire dans les prochaines années. La société allemande de véhicules électriques solaires Sono Motors ouvre la voie, qui se tourne vers la vente de sa technologie aux constructeurs automobiles traditionnels.

La technologie solaire arrivera très probablement sur le marché comme option dans les voitures coûteuses, conclut Miguel Brito. « Je suppose que dans les quatre à cinq prochaines années, cela deviendra un élément standard des véhicules électriques et que d’ici 2030, toutes les voitures seront équipées d’une sorte d’énergie solaire. »

https://spectrum.ieee.org/solar-powered-cars