1 articles pour cette sélection
15.03.2026 par MG
num.357 avril 2026 p.15
Vedettes du sport et intelligence artificielle

À la télévision, nous voyons régulièrement des sportifs suisses de haut niveau apparaître dans toutes sortes de publicités — Roger Federer étant sans doute le plus connu — et l'on peut se demander s'ils pratiquent vraiment ce qu'ils prônent ! Cette saison de ski, un nom très en vue est celui de Marco Odermatt, qui apparaît dans une publicité pour une entreprise d'optique, et qui en ressort portant une paire de lunettes.

En a-t-il vraiment besoin ? En regardant de plus près, j'ai reconnu un modèle intégrant l'intelligence artificielle (IA). J'en possède moi-même une paire — les lunettes Ray-Ban Meta — que j'ai utilisées avec profit lors d'une réunion de KLUG-CESAR (www.cesar-klug.ch/#contact), un groupe présidé par Delphine Klopfenstein qui traite de l'aviation et des aéroports à travers toute la Suisse. Je m'en suis servi pour recevoir dans l'oreille une traduction instantanée des intervenants qui s'exprimaient en allemand.

À ces lunettes est associée une application iPhone donnant accès à Meta-AI, qui offre d'autres fonctionnalités d'IA assez semblables à ChatGPT. Il semble fort probable qu'Odermatt ou son équipe fassent usage de l'IA dans leur entraînement. On pourrait même imaginer que des images de drone survolant un slalom, combinées à une connaissance détaillée du terrain, permettent d'identifier les portes les plus délicates et d'optimiser la trajectoire du skieur.
L'IA fait bien sûr beaucoup parler d'elle en ce moment, et peut clairement être utilisée de nombreuses façons — certaines moins bienvenues que d'autres. Techniquement, ces lunettes pourraient utiliser la reconnaissance faciale pour identifier les personnes en face de vous et vous dire qui elles sont (ce qui serait utile si, comme moi, on a du mal à retenir les noms). Mais si ces noms et votre localisation sont envoyés dans une base de données quelque part au loin, on risque de se retrouver dans le monde orwellien de « 1984 » que la plupart d'entre nous préféreraient éviter.

Aux États-Unis, on sait que l'IA est utilisée par l'armée pour aider à identifier des cibles à bombarder. Cela est devenu politiquement controversé : l'administration actuelle fait pression pour un usage militaire de l'IA totalement sans entraves, y compris la possibilité de décisions létales prises sans aucune intervention humaine. L'un des fournisseurs d'IA importants est une entreprise appelée Anthropic, fondée par Dario et Daniela Amodei, qui insistent pour que toute décision importante implique toujours un être humain. Cela les a mis en conflit avec ceux de l'administration américaine actuelle qui souhaitent que l'IA opère sans de telles contraintes.
En Suisse et à travers l'Europe, il existe heureusement une volonté politique claire d'empêcher les usages les moins souhaitables de l'IA. La loi européenne sur l'IA fournit un cadre de principes, et la Suisse, bien que non membre de l'UE, est activement engagée dans ces questions. Il existe cependant des préoccupations compréhensibles quant aux conséquences diplomatiques d'une résistance aux pressions américaines dans ce domaine.
En me penchant davantage sur Anthropic, j'ai découvert que leur chatbot s'appelle Claude. Dialoguer avec lui se rapproche remarquablement du célèbre défi posé par Alan Turing — le mathématicien qui fut au cœur du déchiffrement de la machine Enigma allemande pendant la Seconde Guerre mondiale — selon lequel le vrai test de l'intelligence d'une machine est de savoir si, en conversation, on peut la distinguer d'un être humain. Claude passe presque ce test. Il a certes des limites lorsqu'il s'agit d'accéder à des données locales du monde réel — mais cela fera l'objet d'un autre article.
P.S. Cet article est le résultat d'une interaction avec Claude, qui est non seulement sur le point de réussir le test de Turing, mais qui a également traduit l'original anglais en français.

auteur : Mike Gérard

<< fermer