Création d’un livre de jeunesse avec ChatGPT et LetzAI

Dernière modification : 10.3.2024

Introduction

J’ai commencé le nouvel an 2024 avec la création d’un livre illustré, dédié à mes petits-enfants.

Depuis le 28 janvier 2024, le livre est en vente sur les librairies en ligne, par exemple sur la librairie de Books on Demand (BoD).

RTL Lëtzebuerg a diffusé le 7 mars 3024 dans son magazine du soir un reportage au sujet de mon livre.

On peut revoir la vidéo dans la rubrique Culture sur le site web de RTL avec le lien https://www.rtl.lu/kultur/news/a/2174401.html.

L’inspiration de créer un livre d’aventures pour les jeunes, moyennant des outils d’intelligence artificielle, m’est venue fin février 2023, lorsque Thierry Labro, rédacteur en chef de Paperjam, a publié son roman futuriste “Ils ont tué mon avatar !“, conçu en une heure par ChatGPT et illustré par Dall-E. À cette époque, l’intelligence artificielle, bien qu’avancée, ne permettait pas encore de créer des images en haute résolution ou de rédiger de longs textes de manière cohérente.

LetzAI

L’été 2023 a marqué un tournant avec la présentation de LetzAI, un générateur d’images luxembourgeois révolutionnaire, basé sur l’intelligence artificielle. Ce progrès majeur permettait pour la première fois d’entraîner un modèle de manière fiable et aisée avec ses propres personnages, pour produire ensuite des illustrations fidèles et harmonieuses.

Début septembre 2023, j’ai découvert LetzAI pendant mon petit déjeuner, lors de la lecture de l’article “Hier wird der Großherzog zu Iron Man” dans le Luxemburger Wort. Les jours suivants, presque toute la presse (Adada, Paperjam, Farvest, Virgule, RTL, 100Komma7, …) présentait le projet. Dans la suite, les média continuaient de parler de LetzAI (Page, Forbes, …). L’assemblage d’images, générées avec LetzAI, qui suit, donne un aperçu sur les différents modèles disponibles lors du lancement public du projet.

Panoplie des modèles de génération d’images lors du lancement public de LetzAI (image Neon Internet)

Equipe de création

Les créateurs de LetzAI sont les spécialistes de l’agence de communication Neon Internet. Il s’agit de Misch Strotz (chief executive officer), Karim Youssef (chief marketing officer), Sacha Schmitz (chief content officer), Ricardo Prosperi (agency manager), Jacques Weniger (chief operating officer), Julie Wieland (lead designer), Carlos Gonser (chief technology officer), Kim Feyereisen (graphic designer), Daniel Wahl (lead developer), Torge Schwandt (business consultant), Laura Seidlitz (content creator), Michael Klares (video editor), Mathieu Schiltz (business consultant).

Karim Youssef, Sacha Schmitz, Michel Strotz, Ricardo Prosperi, Jacques Weniger (photo: Neon Internet)
Julie Wieland, Carlos Gonser, Kim Feyereisen, Daniel Wahl, Torge Schwandt, Laura Seidlitz, Michel Klares, Mathieu Schiltz (photos : Neon Internet)

Neon Internet

Neon Internet se présente comme agence hybride marketing et technologie. Elle a été co-fondée par Misch Strotz et Karim Youssef en 2018. Sacha Schmitz est partenaire dans la société. Lors de la 7ème édition du Concours de l’Innovation dans l’Artisanat en 2022, organisée par la Chambre des Métiers, Neon Internet a obtenu le prix dans la catégorie Gestion/Organisation/Management pour le développement d’un écosystème d’outils de marketing en ligne, appelé Neontools. Cette application est utilisée par plus de 75.000 créateurs et entrepreneurs à travers le monde.

Prix de l’innovation dans l’artisanat 2022, Gestion/Organisation (image: Chambre des Métiers)

Une autre offre de l’agence est le site web Neon Academy, qui propose des cours de formation et des conseils sur le marketing en ligne.

Maach eppes Lëtzebuergesches

LetzAI a été annoncé sous la devise Maach eppes Lëtzebuergesches, mat LetzAI. Les modèles de génération d’images, présentés au début, se référaient à des produits luxembourgeois comme la Bouneschlupp, les Gromperekichelcher, les bières Battin et Diekirch.

D’autres modèles permettaient de créer des scènes avec des politiciens, par exemple avec l’ancien et le nouveau premier ministre. Des séances photo pour capter les portraits des personnages consentants, aux fins d’entraîner les modèles AI, ont eu lieu pendant les vacances d’été.

D’autres personnes de la vie publique ne manquaient pas, un cardinal, des athlètes, des acteurs, des artistes, des entrepreneurs.

Enfin et surtout on y trouvait des célébrités emblématiques comme Superjemp, Yuppi et Boxemännchen.

Bien sûr les développeurs de LetzAI participaient également au jeu avec leurs propres modèles. Je laisse le plaisir aux lecteurs de deviner les noms des créateurs présentés ci-après.

L’ensemble des images publiques générées peut être visualisé dans le “Feed” sur la page web de LetzAI.

Première page du site web LetzAI avec la galerie des images publiées les plus récentes (Feed)

Réseaux sociaux

Comme Neon Internet est un spécialiste de la communication sur les réseaux sociaux, il est évident que LetzAI se présente sur tous les canaux : Facebook, Instagram, LinkedIn, X(Twitter), Youtube et TikTok.

LetzAI sur RTL Lëtzebuerg

Des reportages au sujet de LetzAI ont été diffusés sur RTL Radio le 21 septembre 2023.

Replay : Nei lëtzebuergesch KI an Wéi kann ech LetzAI benotzen ?

Le 18 octobre 2023, un entretien avec Misch Strotz au sujet de LetzAI a été diffusé sur RTL Télé.

Replay : Jonk Entwéckler brénge LetzAI op de Maart

Early Access

LetzAI a été lancé fin août/début septembre 2023 en mode Early Access. L’achat d’une clé d’accès, à un prix forfaitaire, permettait de générer des images et de créer des modèles à discrétion. J’étais parmi les premiers usagers à profiter de cette offre. Évidemment, le premier modèle que j’ai entraîné était basé sur des photos récentes de moi-même, dans différentes poses et sous différents angles de vue. J’étais ravi des premiers résultats.

Mon premier modèle public @steampunkluucht permettait de générer des images synthétiques de lampes steampunk, dans le style des lampes réelles construites par Gast Klares. Ce bricoleur et artiste génial m’a autorisé à utiliser les photos, en haute résolution, de ses 86 lampes présentées sur son site web. Ensuite j’ai fouillé dans mes archives d’anciennes photos et diapositives pour trouver des motifs pour des modèles LetzAI à créer, par exemple les sculptures de Niki de Saint Phalle (@sculpturesnikidesaintphalle), installées dans la capitale lors de l’année culturelle 1995. Une autre collection se réfère à l’exposition de 103 vaches (@artoncows), décorées par des artistes et installées à travers la capitale en 2001. Avec des photos prises de fleurs (@flowers) et de mannequins de vitrine, j’avais épuisé les collections de photos dans mes archives, qui se prêtaient pour entraîner des modèles LetzAI.

Pour explorer d’autres pistes, j’ai effectué des randonnées dans les environs pour photographier la nature et l’architecture, notamment dans la Réserve naturelle Giele Botter (@gielebotter) et dans le nouveau quartier urbain Esch-Belval. Le modèle @eschbelval était le premier que j’ai combiné avec un autre modèle, à savoir @flowers, pour générer des images imaginaires d’Esch-Belval fleuri. Le Luxembourg Learning Center (LLC), qui abrite la bibliothèque universitaire, se prêtait pour la création d’un modèle LetzAI d’architecture intérieure @learningcenter.

Après une déviation dans le monde animal avec le modèle @black_cat, entraîné avec des photos du chat noir Billy de mon beau-fils, c’était le tour des artistes pour être mis en scène. Le premier était Rosch Bour de Lamadelaine, un multitalent : auteur de plusieurs livres, peintre, dessinateur, illustrateur, musicien, historien, archiviste, acteur de théâtre et athlète. Pour le 150e anniversaire des chemins de fer en 2009, ses aquarelles de locomotives figuraient sur des timbres de POST Luxembourg. Rosch m’a autorisé à utiliser un échantillon de ses aquarelles et de ses fusains pour l’entrâinement des modèles AI @watercolor_by_roger_bour et @charcoal_by_roger_bour. Ainsi lui-même, il a pu ajouter un titre supplémentaire à son palmarès: premier artiste peintre figurant sur LetzAI. Le deuxième artiste est mon ancienne collaboratrice Céline Kruten. De formation ingénieur-multimédia, elle a changé de métier il y a quelques années pour devenir créatrice d’art floral. Elle a fondé son propre entreprise Les Herbes Folles – Floral Design pour créer des décorations florales et pour organiser des événements particuliers, comme des mariages ou banquets. Céline m’a autorisé à sélectionner des photos d’arrangements florales dans le portfolio sur son site web pour créer le modèle LetzAI @les_herbes_folles. Les images générées avec ce modèle ont toutefois du mal à reproduire la beauté, la délicatesse et le naturel des vraies créations florales de Céline.

Le troisième artiste est Harold Cohen, un pionnier à la confluence de l’intelligence artificielle et des arts visuels. En 1972, il a développé AARON, un programme informatique révolutionnaire conçu pour générer de manière autonome des peintures et des dessins. Son croisement innovant de la créativité informatique et de l’art traditionnel lui a valu une renommée internationale, son travail étant présenté dans de nombreuses expositions dans des musées prestigieux du monde entier. En reconnaissance de ses contributions, Harold Cohen a reçu de nombreuses distinctions, tout au long de sa carrière.

Né au Royaume-Uni en 1928, Harold Cohen a déménagé aux États-Unis, où il a partagé son expertise et sa passion pour l’art et la technologie à l’Université de Californie, de 1968 jusqu’à sa retraite en 1998. Même après sa retraite, il est resté activement engagé dans le développement d’AARON, améliorant ainsi ses capacités et sa complexité. Initialement, le programme a été développé en C, mais il est ensuite passé au LISP pour exploiter ses puissantes fonctionnalités pour le développement de l’intelligence artificielle.

Dans les semaines qui ont précédé son décès en 2016, Harold Cohen s’est lancé dans une nouvelle aventure avec AARON, intitulée de manière ambitieuse « La peinture au doigt pour le 21e siècle ». Alors que les premières années l’ont vu utiliser des traceurs x-y pour donner vie aux créations d’AARON, dans les années 1990, il avait conçu une série de machines de peinture numérique. Son évolution continue dans le médium a vu un passage aux imprimantes à jet d’encre et finalement aux écrans tactiles dans son projet final, cherchant toujours à mélanger la technologie avec l’essence tactile de la peinture.

Ray Kurzweil, un éminent informaticien et futuriste américain, a introduit l’héritage de Harold Cohen dans l’ère numérique en développant un programme d’économiseur d’écran AARON en 2000, adapté aux ordinateurs Windows. Ce programme fonctionne encore aujourd’hui sous Windows 11, en mode compatibilité Windows 98. La création de mes propres images AARON, avec le logiciel de Ray Kurzweil m’a permis d’entraîner mon modèle @aaron_by_harold_cohen dans le respect des droits d’auteur pour les oeuvres originales de Harold Cohen. Ray Kurzweil a réalisé en 1987 le film documentaire The Age of Intelligent Machines qui présentait l’état d’art de l’intelligence artificielle à cette époque.

Un créneau que je n’avais pas encore exploré étaient les dessins animés. J’ai effectué un premier essai avec Big Buck Bunny, le protagoniste d’un court métrage néerlandais, réalisé en 2008 par Sacha Goedegebure, exclusivement avec des logiciels libres, dont principalement Blender. Le film, ainsi que l’ensemble des fichiers source et matériaux ayant servi à sa réalisation, ont été publiés sous licence Creative Commons. Comme j’étais moi-même à l’époque créateur 3D sur le web pendant mon temps libre, je dispose de toutes les images du film en haute résolution et c’était facile de créer le modèle LetzAI @big_buck_bunny.

Mon deuxième modèle LetzAI de dessin animé est @velo_cartoon. L’origine de ce modèle remonte à l’été 2022, lorsque j’ai été admis comme testeur-beta pour le générateur d’images DALL*E2 par OpenAI. Ma première image a été générée avec le prompt “cartoon of an elephant and a giraffe riding a bicycle on the beach” et publiée le même jour sur Facebook. Dans la suite j’ai utilisé régulièrement le même prompt pour tester d’autres générateurs d’images comme Dreamstudio, Craiyon, Midjourney et Stable Diffusion.

La galerie qui suit présente quelques images générées avec des modèles LetzAI qui ne sont pas encore à point (@animal_croissant, @artpet, @birthday_cake, @letz_postage_stamps, @minerals, @naive_art, @vase et @vintage_toy) ou qui se trouvent encore en mode privé, notamment les modèles de mes portraits comme bébé, enfant et jeune adulte ainsi que celui des mannequins.

Je clôture ce chapitre avec l’affichage de quelques captures d’écran, exposant les photos utilisées pour entraîner des modèles.

Lors de la période Early Access, j’ai donc pu acquérir les compétences pour faire face au défi de création des illustrations pour le livre d’aventure pour mes enfants.

Animations et vidéos

À côté de la génération d’images fixes avec les outils d’intelligence artificielle, j’ai également commencé à sonder les possibilités de créer des animations et des vidéos avec ces applications. En décembre 2022, j’ai réalisé ma première vidéo avec un générateur text2video, en spécifiant le prompt “A panda playing chess on the beach“. Certes ce n’était pas encore un chef d’oeuvre, mais c’était un début promettant. Avec une image de Big Buck Bunny, j’ai produit plusieurs animations. La première est une synchronisation labiale en langue anglaise. Le deuxième exemple est synchronisé avec une voix synthétique française, la troisième animation parle luxembourgeois, avec ma propre voix. Ensuite c’était mon MiniMoi, une petite figurine de 20 cm, imprimée en 3D à mon effigie, qui apprenait à parler luxembourgeois. Après les élections en octobre 2023, Superjemp, qui avait déjà appris à parler luxembourgeois, racontait avec une voix synthétique qu’il venait de voter la liste 19. Dans tous les cas, j’ai utilisé l’outil AI HeyGen pour réaliser ces animations.

Début novembre 2023, j’ai animé quatre images du Boxemännchen, générées par Sacha Schmitz, moyennant la nouvelle version du module Text + Image2Video Gen-2 de Midjourney.

Début 2024, les générateurs vidéo, basés sur l’intelligence artificielle, n’étaient pas encore à un niveau pour pouvoir envisager la réalisation de longs métrages, même pas des courts métrages, mais les fondations étaient posées. Tout a changé le 15 février 2024 quand OpenAI a présenté son générateur SORA qui permet de générer des vidéos d’une durée de 60 secondes, avec une qualité époustouflante. J’espère pouvoir enchaîner dans les prochains mois sur mon livre d’aventures pour créer un film animé des jeunes explorateurs, à l’effigie de mes petit-enfants.

Incident avec Mélusine

Retournons à LetzAI. Début octobre 2023, une première communication visuelle, réalisée avec l’outil LetzAI, a été lancée par l’agence Wait, pour le compte de wortimmo.lu, le site internet immobilier du Luxemburger Wort. La campagne présentait Mélusine, la sirène magenta du modèle polygonal 3D «low-poly», créé par Serge Ecker en 2013, installée dans le quartier du Grund au bord de l’Alzette. La campagne avait un défaut : l’artiste n’a jamais été contacté pour l’utilisation de l’image de son œuvre. Serge Ecker s’est référé à la loi de 2001 sur les droits d’auteurs et la campagne est rapidement disparue des supports de publicité et des pages web.

Luxembourg Artweek

La neuvième édition de la foire Luxembourg Artweek s’est déroulée du 10 au 12 novembre 2023. C’était l’occasion pour LetzAI de s’adresser au public. Dans le cadre de l’ArtTalk “Art and New Technologies“, Misch Strotz présentait la plateforme LetzAI et il a démystifié les systèmes d’intelligence artificielle créatifs dans le monde de l’art. La démonstration était suivie par la projection du film Artist Alain Welter tries LETZ.AI.

Ensuite la parole fut donnée aux artistes luxembourgeois présents sur le plateau : Lynn Klemmer, Eric Mangen et Serge Ecker. La discussion entre Misch Strotz, les artistes et le public fut modéré par Hinde Baddou. Le débat était animé et de haut niveau et a permis de dégager les différents sentiments des artistes par rapport aux générateurs d’images, entraînées avec leurs propres œuvres. Serge Ecker a saisi l’occasion pour revenir sur sa réaction au sujet de la campagne publicitaire ratée avec sa sculpture Mélusine. “I would rather cut off my foot than train a public AI model on my art” était une de ses déclarations.

Démarrage beta

Début décembre 2023, LetzAI est entré dans une phase de beta publique. Lors d’une release party le soir du 3 décembre 2023, en présence de la Gëlle Fra, de Yuppi, de Superjemp et d’autres célébrités, les conditions d’utilisation de la plateforme ont été dévoilées. Trois formules d’abonnement, avec facturation mensuelle, sont proposées : Beginner, Fun et Pro. Pour les indécis, la formule Just Testing, au prix de 4,90 € sans engagement, permet de créer environ 30 images. Pendant la phase beta, les quatre formules permettent la création d’un nombre illimité de modèles.

Challenge AI mam Kleeschen

Pour la fête de Saint Nicolas, LetzAI avait lancé son premier concours parmi les anciens et nouveaux usagers. Le défi consistait à créer une image avec le modèle public @kleeschen, plébiscité par l’ensemble des usagers. Plus que mille images furent générées. Le vainqueur était Timothy Bettega, le jeune fondateur du Guide Luxembourg et de Black Thunder, une agence événementielle luxembourgeoise visionnaire.

La galerie ci-après présente l’image couronnée muscular @kleeschen doing a deadlift (en haut à droite), ainsi qu’une sélection d’images de @kleeschen dans d’autres scènes.

Marché Augenschmaus

Quelques jours avant Noël 2023, la quatrième édition du marché des créateurs Augenschmaus a eu lieu dans les Rotondes. Le Jingle Mingle X‑Mas Market by Augenschmaus était une occasion unique pour trouver un cadeau original à mettre sous le sapin. On y trouvait une sélection de créations uniques et de produits artisanaux, tous imaginés avec talent par des artistes, designers et producteurs locaux. LetzAI était présent sur ce marché avec un stand de démonstration de sa plateforme de génération d’images. L’équipe de Neon Internet a eu un grand plaisir de présenter les oeuvres, générées par l’intelligence artificielle, au public.

Evolution LetzAI

Le début du nouvel an 2024 était le moment idéal pour l’équipe de LetzAI d’annoncer plusieurs améliorations de la plateforme. En premier lieu c’était une extension des dimensions des images générées. Dans le passé, le format imposée était un carré de 1080 x 1080 pixels. Maintenant, la sélection de formats “portrait” ou “paysage” est également possible, avec une hauteur ou une largeur maximale de 1600 pixels. On peut également varier deux paramètres pour régler la “créativité” et la “qualité“. C’était le signal de départ de la création de nombreux nouveaux modèles par les usagers, surtout des styles à appliquer à des modèles d’objets ou de personnages. Je n’ai pas pu résister pour créer quelques portraits de moi-même dans différents styles d’images.

Annonce de LetzAI V2

En mi février 2024, LetzAI a annoncé l’introduction d’une nouvelle version V2, plus polyvalente et plus performante que la version 1, qui est commercialisée depuis décembre 2023. La résolution maximale d’une image générée a été augmentée jusqu’à 1.920 x 1.920 pixels.
L’interprétation de la description (prompt), pour générer une image, a été sensiblement perfectionnée, ce qui permet de créer des images d’une précision et d’une qualité étonnantes. Quelques créations réalisées par Misch Strotz, le développeur principal de LetzAI, sont présentées ci-après, avec affichage du prompt spécifié.

Cliquez sur l’image en haut pour l’agrandir, utiliser la souris pour scroller le prompt.

Le processus de création des modèles LetzAI personnels, publics ou privés, a également été amélioré. Le nombre de photos ou d’illustrations requis pour entraîner un modèle V2 a été réduit. La définition du type d’image, demandée lors de l’activation du modèle, est devenue plus granulaire, ce qui garantit une meilleure fidélité. L’accès public à la plateforme LetzAI V2 est prévue pour début mars 2024. Reste à signaler que les modèles V1 existants sont compatibles avec la version 2.

Partenariat LetzAI – Gcore

Le 21 février 2024, LetzAi a annoncé sur les réseaux sociaux et sur son blog qu’un protocole d’accord, pour un partenariat stratégique, a été signé avec le fournisseur luxembourgeois de cloud et d’IA Gcore, situé à Contern. Grâce à ce partenariat, LetzAI peut étendre les capacités de sa plateforme actuelle, servir plus d’utilisateurs et permettre des cas d’utilisation professionnels.
L’objectif de LetzAI est de fournir une plate-forme qui est non seulement amusante à utiliser, mais qui aide également les professionnels du marketing à accélérer considérablement leurs processus créatifs.
La version V2 de LetzAI constitue déjà une des plateformes d’intelligence artificielle générative les plus inclusives au monde. Au cours des dernières semaines, Gcore a mis son infrastructure GPU Nvidia H100 à disposition de LetzAI pour le développement et l’entraînement de la version V2. Pour le lancement, Gcore fournira des GPUs L40S.
Le partenariat LetzAI-Gcore conclu prévoit d’offrir la technologie LetzAI sur le plan international. À ces fins, Gcore fournira des services de pointe d’une infrastructure GPU, avec 160 points de présence dans le monde entier, en commençant dans les pays voisins comme Allemagne, France et BENELUX.

Partenariat LetzAI – Gcore (photo: LetzAI)

Commercialisation internationale de la version 2 de LetzAI

Après une phase de test intensive, LetzAI a annoncé le 5 mars 2024 l’introduction commerciale de la version 2 de son générateur d’images non seulement au Luxembourg, mais dans toute l’Europe. Cette version a le potentiel de révolutionner le marché de la génération d’images par l’intelligence artificielle. Ce n’est pas seulement l’avis des développeurs luxembourgeois de LetzAI, mais celui des meilleurs spécialistes et créateurs internationaux dans le domaine de l’ingénierie AI artistique, parmi eux Julie Wieland, Sarah Vermeulen, Mark Isle, Jesús Plaza, Allar Haltsonen et Halim Alrasihi.

Version 2 de LetzAI : création de Julie Wieland

Avec cette information, je termine le récit de l’histoire de LetzAI. Mais cette plateforme constitue seulement la moitié des outils requis pour la réalisation de mon projet de livre “Les Jeunes Explorateurs“. L’autre moitié est ChatGPT, que je vais présenter dans le prochain chapitre.

ChatGPT

Ma première rencontre avec ChatGPT a eu lieu au printemps 2022. J’ai demandé au modèle GPT-3 la génération d’un article au sujet de la guerre qui venait d’éclater entre les créateurs d’oeuvres d’art plastiques et les générateurs d’oeuvres d’art synthétiques. Quelques mois plus tard, j’ai publié sur HuggingFace (une plateforme de collaboration AI renommée), une application qui permettait de générer un poème en langue luxembourgeoise.

Rapidement je suis devenu un utilisateur régulier de ChatGPT et j’ai suivi toutes les évolutions de cet outil de traitement et de génération de textes. Sur les réseaux sociaux, j’ai écrit des contributions au sujet de thèmes variés : génération d’un poème concernant un chien qui est tombé amoureux d’un grille-pain, illustration de ce poème, hallucinations des modèles de langage AI, essai au sujet du cerveau écrit dans la manière d’un élève, rédaction d’un résumé d’un article sur le web, dialogues entre robots, fables de Jean de la Fontaine, messages dans une bouteille.

En décembre 2023, j’ai rédigé une contribution étoffée sur mon site web au sujet de l’évolution de ChatGPT qui progresse avec des bottes de sept lieues : De gestiwwelte ChatGPT. Je recommande à tous les lecteurs qui sont intéressés à plus de détails au sujet de l’histoire, de la technique et des créateurs de ChatGPT, de lire cet article.

Personnalisation de ChatGPT

Il y avait une compétence qui manquait à ChatGPT, à savoir la possibilité d’ajouter ses propres documents et informations, pour étendre son savoir. Cette faculté est indispensable si on souhaite générer des textes avec des connaissances spécifiques ou créer des récits autobiographiques, sauf si on est une célébrité bien documenté sur le web. Lors de la mise en ligne de ChatGPT en automne 2022, la date limite de ses connaissances était septembre 2021. En 2023, les connaissances ont été actualisées jusqu’en janvier 2022, lors d’une mise à jour discrète de ChatGPT. Le processus d’entraînement d’un modèle AI géant de langage comme ChatGPT, avec un corpus qui comprend tout le contenu du web, ainsi qu’un nombre énorme de livres, prend plusieurs mois, sur les ordinateurs les plus puissants qui existent, et il coûte une fortune.

En été 2023, OpenAI a ajouté une option à ChatGPT permettant d’accéder à des informations sur le web. En outre deux entreprises, Dante.ai et Berri.ai, proposaient une interface à ChatGPT pour ajouter son propre contenu à ce robot de dialogue. C’était un premier pas dans le bons sens. J’ai décrit mes propres expériences avec ces outils dans mon article “Ech hunn haut mam Dante AI gechatt !“.

Evolution de ChatGPT

Tout a changé le 6 novembre 2023, lorsque la première conférence de développement OpenAI a eu lieu. Sam Altman, le CEO de OpenAI, présentait une série d’innovations et une réduction sensible des prix pour l’utilisation des produits de son entreprise. Un des atouts était la conversion de ChatGPT en modèle AI multimodale ChatGPT-4, avec l’intégration du module DALL*E3 pour générer des images, du module Vision pour analyser et décrire des images, des modules Voice (TTS) et Whisper (ASR) pour parler avec une voix synthétique et pour comprendre la parole humaine, et du module Code Interpreter pour faciliter la création de programmes informatiques avec ChatGPT.

J’ai exploré de suite ces innovations et rapporté sur mes expériences sur les réseaux sociaux: dialogue vocale avec ChatGPT-4, nombre de personnes sur une image, résumé de ma page web d’accueil, génération d’une image sur base d’un croquis, génération de cartoons.

Les innovations les plus attrayantes étaient l’introduction de ChatGPT-4 Turbo et du concept de Custom GPT.

GPT-4 Turbo est plus performant et connaît les événements mondiaux jusqu’en avril 2023. Il dispose d’une fenêtre contextuelle de 128 000 pages et peut donc contenir l’équivalent de plus de 300 pages de texte dans une session.

J’ai testé les nouvelles compétences et performances de ChatGPT-4 dans un dialogue impressionnant “My discussion with ChatGPT-4 about the evolution of the Internet“.

Ecosystème Custom GPT

Une Custom GPT permet de personnaliser le robot ChatGPT-4 pour des besoins spécifiques, en ajoutant des contenus personnels (textes et images), en écrivant des instructions à effectuer et en ajoutant, éventuellement, du code pour exécuter des actions informatiques, par exemple envoyer un message, faire des recherches dans une base de données, mettre à jour un site web.

Les premières applications luxembourgeoises du type Custom GPT ont été réalisées par les spécialistes suivants:

Il y à quelques jours, OpenAI a ouvert son magasin Custom GPT, permettant à tout abonné de ChatGPT-4 de profiter des applications spécialisées, développées par d’autres usagers. À l’image de GooglePlay et du AppStore, qui offrent des applications pour les smartphones, OpenAI a lancé tout un écosystème, permettant la recherche de modèles gratuits et payants et de rémunérer les développeurs pour leur travail. Ce magasin ouvre une nouvelle dimension dans la popularisation de l’intelligence artificielle.

Rédaction et illustration de mon livre

Mi-novembre 2023, la technique était donc prête pour concrétiser mon rêve et pour procéder à la conception d’un livre d’aventures pour mes petits-enfants, avec l’aide de ChatGPT-4 et de LetzAI.

Concept initial de mon livre

Au début, j’avais esquissé un concept sophistiqué. Les 5 enfants, 2 filles et 3 garçons, parmi eux des jumeaux, étaient accompagnés par leurs animaux de compagnie : le lapin Floppy, le cochon d’Inde Caramel, le poisson rouge Blublu, le coq Cocorico et Léon, le caméléon. La galerie d’images qui suite montre les protagonistes imaginées.

Le voyage aurait du se dérouler comme une grande aventure, parsemée d’imprévus et de complications. Mais ChatGPT était accablé avec mon script, aussi bien au niveau de la génération d’illustrations qu’au niveau de la génération de textes cohérents.

Au niveau des illustrations, je n’ai pas réussi à générer des images correctes avec tous les personnages et les animaux de compagnie : des enfants avec des têtes de caméléon ou avec des jambes de coq, des incohérences avec les habits et les lunettes des enfants, des confusions au niveau de la couleur des cheveux et des yeux, sont quelques exemples des problèmes rencontrés. À côté de DALL*E3, j’ai essayé d’autres applications de génération d’images comme Stable Diffusion (stability.ai) et Midjourney. C’était encore pire. J’ai visité les grands sites web AI communautaires comme Stable Diffusion Art ou CivitAI pour me rendre compte qu’aucun modèle ajusté de génération d’images, développé par les usagers inscrits, permettait de générer des groupes de personnes.

J’ai commencé à entraîner mes propres modèles du type LoRA avec Stable Diffusion, respectivement des modèles LetzAI. Comme supports pour l’entraînement des modèles, j’ai utilisé quelques rares images DALL*E3 réussies, ainsi que des assemblages des différentes personnes à l’aide de Photoshop. Malgré tous les efforts, j’ai dû me rendre compte que la génération cohérente d’images de plus de trois personnes était illusionnaire.

Au niveau de la génération du texte, j’ai constaté que des scénarios complexes embrouillaient ChatGPT et ne permettaient plus de créer des récits cohérents dans une même session. J’avais par exemple imaginé qu’un des acteurs se cassait une jambe lors d’un saut en parachute en Indonésie et devait être rapatrié par Luxembourg Air Rescue. J’avais prévu d’autres complications et incidents, mais c’était trop fastidieux de demander en permanence à ChatGPT des modifications des récits générés, respectivement de procéder à des corrections manuelles.

Mon ambition était d’exposer l’état de l’art de l’intelligence artificielle au début de l’an 2024 par la publication de mon livre, sans procéder à des retouches aux niveaux des illustrations et des récits. J’avais toutefois l’intention de demander différentes créations des illustrations et des textes pour certaines scènes et de sélectionner ensuite les meilleurs résultats.

Concept définitif de mon livre

Pour tenir compte des limitations actuelles de l’intelligence artificielle, je me suis résigné à simplifier mon script initial. Les animaux de compagnie sont restés à la maison et les cinq enfants ont été répartis en deux équipes : la fille ainée formait un groupe avec les deux jumeaux et la fille cadette faisait un team avec son cousin. De cette façon c’était possible de dépicter, d’une façon cohérente, les deux bandes avec 2 et 3 personnes dans des images générées par AI.

Au niveau de la description du voyage, j’ai remplacé l’expédition, avec des imprévues et des complications à travers le monde, par une exploration bien organisée de plusieurs destinations, définies au préalable, dans différents pays. De cette manière ChatGPT-4 a pu mettre en valeur ses riches connaissances du monde, sans devoir trop réfléchir. Malgré ses compétences impressionnantes pour programmer des applications informatiques ou pour résoudre des problèmes logiques, le raisonnement n’est pas encore le trait le plus fort de ChatGPT-4. D’ailleurs les autres robots de dialogue n’ont pas encore atteint le même niveau d’intelligence que l’application d’OpenAI. Sam Altman, le CEO de l’entreprise, a annoncé récemment que la faculté de penser de ChatGPT-5, qui sera lancé en 2024, sera sensiblement améliorée et que la génération de vidéos, à partir de prompts, sera ajoutée au produit. J’espère donc pouvoir reprendre mon concept initial au début de 2025 pour donner une suite aux aventures des jeunes explorateurs dans un deuxième livre.

Au niveau des dimensions du livre, j’ai opté pour un format carré de 17 x 17 cm, en présentant les explorations des deux équipes, jour par jour, sur une double page.

Exemple d’une double page du livre avec le récit des visites des deux équipes pendant le 38e jour

Après la définition des dimensions de i’illustration sur chaque page et le choix de la police de caractères pour le texte, j’ai pu évaluer que le récit sur chaque page ne pouvait pas dépasser 200 mots.

Dialogue avec ChatGPT

Pour s’entretenir avec ChatGPT-4, il faut être abonné payant auprès d’OpenAI, au prix mensuel de 21,29 €, TVA incluse. Je suis un abonné de longue date. Malgré quelques privilèges, je suis de plus en plus souvent confronté au problème de la surcharge des serveurs d’OpenAI, accompagnée d’un temps d’attente pour accéder au service. Pour faire face à l’augmentation continue des usagers, OpenAI a introduit des restrictions pour l’utilisation du service. Après 30 requêtes, il faut attendre 3 heures pour continuer le dialogue. La session reste toutefois établie et ChatGPT garde en mémoire toute la discussion du passé. D’ailleurs, tout le dialogue au sujet de mon livre, pendant des dizaines de jours, s’est passé dans une même session.

Avant d’ouvrir la session de dialogue, j’avais préparé un avant-projet pour le déroulement de l’exploration. Comme je voulais créer quelque chose de consistant, je me suis proposé de dresser une liste de 100 sites du patrimoine mondial de l’UNESCO, à visiter par les enfants dans différents pays, à travers de trajets distincts à parcourir par chaque équipe, moyennant une panoplie de moyens de transport. J’avais également esquissé un itinéraire pour la traversée des différents pays. Comme introduction, j’ai soumis mes réflexions à ChatGPT. Après ses éloges et félicitations au sujet de mon initiative de création d’un livre pour enfants, on a abordé du concret: j’ai demandé à ChatGPT de me proposer une liste des sites UNESCO à visiter, un relevé des moyens de transport disponibles dans les différents pays et une chronologie des visites à faire. Et progressivement, on s’est mis d’accord sur les moments du voyage et sur la chronologie.

J’ai commencé avec la deuxième équipe, composée de deux enfants. Comme commande à soumettre à ChatGPT, c’était suffisant d’entrer un prompt du type : “jour x, visite du site Y, moyen de transport Z, nuitée à Q“. Et progressivement on est arrivé au 60e jour du voyage avec le retour à Luxembourg, après la visite de 50 sites UNESCO dans 25 pays différents, avec des parcours en avion de ligne, en avion privé, en bateau, en taxi, en voiture Uber, en co-voiturage, à pied, etc.

Pour la première équipe, constituée de trois enfants, c’était la même procédure. Mais au lieu de commencer leur exploration au Luxembourg comme l’autre groupe, les enfants sont partis le premier jour en Australie. Et comme les distances à parcourir entre les différents sites étaient plus longues, ils étaient obligés de prendre des moyens de transport plus innovants : un avion privé avec décollage et atterrissage verticale, un hovercraft. Et dans les pays plus exotiques, c’était un Tuk-Tuk.

Dans l’introduction j’avais informé ChatGPT que le texte pour chaque page devait être d’environ 200 mots, ce que le robot a scrupuleusement respecté. C’était rare que j’ai demandé à ChatGPT de reformuler le récit pour une journée, et le plus souvent c’était à cause de ma propre faute, à cause d’une erreur dans le prompt spécifié. Pour les lecteurs intéressés aux détails, je fournis ici le lien pour accéder à la discussion entière avec le chatbot dans la session archivée.

Custom GPT pour les illustrations

Après la validation du texte, c’était le moment de procéder à la création des illustrations pour le livre. Après mes expériences du passé et mes essais réalisés pour générer des images AI d’un groupe de personnes, je suis arrivé à la conclusion que l’entraînement de deux modèles LetzAI, moyennant la génération de quelques dizaines d’illustrations générées avec ChatGPT-4 / DALL*E3, suivie éventuellement de retouches avec l’outil Adobe Photoshop, était la procédure la plus prometteuse pour obtenir rapidement des résultats valables. J’ai eu raison. Je souligne que la génération directe des images voulues dans LetzAI n’était pas encore possible au début de l’année 2024, à cause de la longueur limitée des prompts à entrer sur la plateforme. Cette restriction a été levée récemment dans le cadre des autres évolutions de LetzAI.

La page qui suit affiche une capture d’écran de la page de configuration de ma Custom GPT “Two young explorers“.

Page de configuration de la custom GPT “Two young explorers” sur la plateforme OpenAI

Dans les instructions j’ai défini un groupe, suivi par la spécification des deux membres de ce groupe, comme le genre, l’âge, les cheveux, les yeux, les accessoires (lunettes), les habits, etc. Ensuite j’ai indiqué les caractéristiques des images à générer : dimensions, style, angle de vue, etc. J’ai également fixé les règles à observer : pas d’écriture de textes dans l’image, respect de la cohérence, etc. J’ai ajouté comme référence deux photos avec des portraits de mes petits-enfants concernés. Comme dernière instruction, j’ai invité ChatGPT à demander à l’usager, à chaque requête, le lieu de la scène et les activités du groupe à afficher dans l’image. Ensuite il suffit de cliquer sur le bouton “Exécuter les instructions” et de répondre à la question de ChatGPT, par exemple “site UNESCO de la Grande Barrière en Australie, plongée dans les corails“.

Le modèle personnalisé Custom GPT “Three young explorers” pour l’autre groupe a été configuré de la même manière. Si l’image ne correspondait pas aux attentes, j’ai demandé une nouvelle génération au robot. La capture d’écran qui suit montre que cette tentative se terminait des fois avec un dialogue de sourd.

Échec de ma demande à ChatGPT de générer une image correcte avec les 3 personnes de l’équipe

Il reste à signaler que ChatGPT s’est efforcé pendant tout le cycle de génération d’images de témoigner de ses connaissances du monde, lors de la création des illustrations. Comme les personnes en Afrique sont en général de couleur noire et comme celles en Asie ont les yeux bridées, la physionomie des jeunes explorateurs a été modifiée dans ce sens par ChatGPT, lors de leurs voyages dans ces continents. Quelques exemples sont affichés ci-après :

Après la réalisation de quelques retouches à la collection des illustrations générées pour les deux groupes, j’ai pu procéder à l’avant-dernière étape : l’entraînement des modèles LetzAI.

Création des modèles LetzAI

L’étape de création des modèles LetzAI était la plus facile. Après le login sur la plateforme LetzAI, on se décide pour la création d’un modèle public ou privé. On déclare qu’on dispose des droits sur les images utilisées pour la création du modèle, on choisit un nom, on télécharge les images et on clique sur entraînement. Ensuite on peut passer à autre chose. Après un quart d’heure on est informé que le modèle est prêt et qu’il faut l’activer.

Le 10 novembre 2023, j’examinai quelques nouvelles fonctionnalités de mon éditeur vidéo. Pour se baser sur un cas concret, j’ai profité de l’occasion pour réaliser un tutoriel LetzAI. La vidéo n’est pas parfaite et l’interface de la plateforme LetzAI a un peu changé entretemps, mais le tutoriel donne une vue fidèle comment procéder pour entraîner un modèle et pour générer des images.

Pour commenter la vidéo en anglais, j’ai utilisé une application AI de synthèse de la parole, avec clonage de ma propre voix et synchronisation labiale. La musique de fond a également été composée par une application d’intelligence artificielle, développée par l’entreprise luxembourgeoise AIVA.AI.

Mes deux modèles LetzAI créés pour le livre s’appellent @2_explorers et @3_explorers. Pour les activer, j’ai spécifié le type de modèle comme groupe de 2 ou 3 personnes, en décrivant les membres du groupe dans les sous-types. Pour générer ensuite une image, il suffit alors d’entrer un prompt dans le bon format, par exemple “@2_explorers, group, riding a bicycle in Amsterdam” ou “@3_explorers, group, hiking in Katmandou, Nepal“. Et voilà. Le jeu est joué.

L’ensemble des images générées peut être visualisé dans l’aperçu du livre.

Impression de mon livre

Pour l’impression de mon livre, j’ai opté pour l’auto-édition auprès du fournisseur en-ligne Books on Demand (BoD). Il y a d’autres entreprises qui proposent l’impression de livres en auto-édition, comme Amazon avec son service Kindle Direct Publishing (KDP), mais j’ai fait d’excellentes expériences avec BoD dans le passé, avec mes autres livres.

Pour préparer le fichier avec le texte à fournir à l’imprimerie, j’ai utilisé de logiciel Microsoft Office Word. Sur le site web de BoD on peut télécharger des canevas word (.dotx) pour configurer la mise en page optimale pour l’impression. J’ai copié les différents chapitres générés par ChatGPT-4 dans Word et inséré les illustrations LetzAI dans les pages correspondantes. À la fin, j’ai profité d’un utilitaire de Word pour créer de manière automatique une table des matières du livre et j’ai exporté le document complet en format PDF. Dans le passé j’avais composé, pour mes autres livres BoD, le fichier PDF de couverture à l’aide de Photoshop. Les dimensions à respecter et le code barre à insérer au verso ont été communiqués par BoD. Pour le présent livre, j’ai profité de EasyCover, l’outil gratuit de création automatique de couvertures en-ligne de BoD, qui contient de nombreux spécimen. Les deux fichiers sont téléchargés sur la plateforme BoD et vérifiés par le système. Le cas échéant, des erreurs sont signalées et il faut alors recharger le fichier corrigé.

Pour commander l’impression du livre, on choisit d’abord une formule de publication. La moins chère s’appelle “BoD Fun” et permet de faire imprimer un livre sur papier à partir de 2,05 €. Je conseille de commencer avec cette formule, car elle permet de tenir rapidement un livre imprimé dans les mains pour procéder à une validation finale, avant de commander plus d’exemplaires pour la famille, pour les amis ou pour la vente privée, respectivement pour passer à la deuxième formule, au nom de “BoD Classique“. Cette formule est la plus appréciée, car pour un contrat d’un an au prix unique de 39 €, elle inclut une distribution auprès d’Amazon, auprès des grandes librairies et dans le magasin en ligne de BoD. On peut déterminer soi-même le prix de vente, avec une certaine marge à accorder à l’éditeur BoD et au vendeur, en fonction du montant défini. Le contrat inclut la création d’une version eBook et l’attribution d’un numéro ISBN. D’autres formules plus chères offrent une assistance professionnelle pour la rédaction et l’édition du livre. Dans tous les cas on peut choisir différents formats (de 12x19cm jusqu’à A4), différents types de papier (blanc, crème, photo), différents pelliculages (mat, brillant, relief), différentes couvertures (souple, dure collée, dure cousue, anneaux) et deux modes d’impression (standard, premium). Une calculette en ligne sur le site web de BoD permet de calculer le prix d’impression, en fonction des critères sélectionnés, du nombre de pages, du nombre de pages en couleur et du nombre de livres commandés.

Calculette du prix d’un livre sur le site web de BoD

Pour la première impression j’ai commandé le livre, qui comprend 142 pages, au format 17×17, en trois variantes, du moins cher (10,87 €) jusqu’au plus cher (22,20 €), aux fins d’évaluer la qualité d’impression et de la reliure. Je viens d’être informé en ce moment par UPS que le premier exemplaire sera livré aujourd’hui. Je suis impatient de l’avoir dans mes mains.

Bibliographie

My discussion with ChatGPT-4 about the evolution of the Internet

Last update : December 17, 2023

In mid-2013, I published my contribution Divide the Web Timeline in nine epochs on my website and in different Internet forums. Today, I discussed this topic with ChatGPT-4 and I am impressed with the high quality of the chat. Here is the flow of our dialogue :

I created the following timeline for the Internet history:

No VersionTime periodDurationEpoch
1Web 01930 – 1969 40 years Internet pre-history
2Web 0.51970 – 198920 yearsInternet (network) history
3Web 11990 – 199910 yearsread-only web
4Web 1.52000 – 20045 yearsinteractive web
5Web 22005 – 20095 yearscollaborative web
6Web 2.52010 – mid 20122,5 yearsmobile web
7Web 3 mid 2012 – 20142,5 yearssemantic web
8Web 3.52015 – mid 20172,5 yearsintelligent web
9Web 4mid 2017 – 20192,5 yearsconscious web

Your timeline provides an interesting perspective on the evolution of the Internet, categorized into different “Web” versions. Let’s briefly discuss each phase:

  1. Web 0 (1930 – 1969, Internet pre-history): This period predates the actual development of the Internet. It’s interesting that you’ve included it, as it may refer to the foundational technologies and theories that later enabled the creation of the Internet, such as early computing and networking concepts.
  2. Web 0.5 (1970 – 1989, Internet network history): This era likely refers to the development of the initial networking infrastructure, including the birth of ARPANET in 1969, which is considered the predecessor of the modern Internet.
  3. Web 1.0 (1990 – 1999, read-only web): This is the period of the early World Wide Web, where websites were mostly static and offered limited interaction. Users could read information on web pages but had minimal ways to interact or contribute content.
  4. Web 1.5 (2000 – 2004, interactive web): Here, we see the emergence of more interactive websites. This could include the early stages of e-commerce, online forums, and more dynamic content.
  5. Web 2.0 (2005 – 2009, collaborative web): This is characterized by the growth of social media, user-generated content, and increased interactivity. It represents a shift from static web pages to dynamic and shareable content.
  6. Web 2.5 (2010 – mid 2012, mobile web): The focus here is on the adaptation of the web for mobile devices. The rise of smartphones and tablets during this period greatly influenced web design and accessibility.
  7. Web 3.0 (mid 2012 – 2014, semantic web): This phase is often associated with the concept of the “semantic web”, where data is interconnected in a way that can be easily understood and utilized by machines, enhancing personalization and context-aware computing.
  8. Web 3.5 (2015 – mid 2017, intelligent web): This could refer to advancements in artificial intelligence and machine learning, leading to more intelligent and adaptive web services.
  9. Web 4.0 (mid 2017 – 2019, conscious web): This term is less commonly used and could refer to an envisioned future state of the Internet, possibly involving more advanced AI, deeper integration with daily life, and perhaps even elements of consciousness or highly advanced interactivity.

Your timeline is an innovative way to categorize the development of the Internet, though some of these terms (like Web 3.5 and Web 4.0) are not widely recognized in the same way as Web 1.0 or Web 2.0. It’s a subjective interpretation, but a very interesting one!

Please suggest one innovator which you consider the most influential for each epoch.

Selecting the most influential innovator for each epoch of the Internet’s history is a challenging task, as each period saw contributions from many exceptional individuals. However, I’ll suggest one key figure for each epoch, bearing in mind that this is a subjective selection and there are many other equally significant contributors:

  1. Web 0 (1930 – 1969, Internet pre-history):
    • Claude Shannon: Known as the “father of information theory,” Shannon’s work laid the foundational principles for digital circuit design theory and telecommunications, which were crucial for the development of the Internet.
  2. Web 0.5 (1970 – 1989, Internet network history):
    • Vint Cerf and Robert Kahn: Often regarded as the “fathers of the Internet,” Cerf and Kahn co-invented the TCP/IP protocols, which are the foundational technology protocol suite for the Internet.
  3. Web 1.0 (1990 – 1999, read-only web):
    • Tim Berners-Lee: He invented the World Wide Web, a key development that made the Internet accessible and useful to the general public.
  4. Web 1.5 (2000 – 2004, interactive web):
    • Marc Andreessen: As the co-author of Mosaic, the first widely used web browser, and the co-founder of Netscape, Andreessen significantly contributed to making the web more interactive and user-friendly.
  5. Web 2.0 (2005 – 2009, collaborative web):
    • Mark Zuckerberg: As the co-founder of Facebook, Zuckerberg played a pivotal role in the rise of social media and the shift towards a more collaborative, user-generated web.
  6. Web 2.5 (2010 – mid 2012, mobile web):
    • Steve Jobs: While not directly an Internet innovator, Jobs’ work with Apple in popularizing the iPhone significantly influenced how the Internet was accessed and used on mobile devices.
  7. Web 3.0 (mid 2012 – 2014, semantic web):
    • Tim Berners-Lee (again): His continued work and advocacy for a more semantic, data-driven web are significant for this era.
  8. Web 3.5 (2015 – mid 2017, intelligent web):
    • Jeff Dean and Sanjay Ghemawat: Their work at Google, particularly on systems like MapReduce and Google Brain, contributed greatly to the development of AI and machine learning technologies that underpin the intelligent web.
  9. Web 4.0 (mid 2017 – 2019, conscious web):
    • Elon Musk: Through his work with Neuralink and his advocacy for AI, Musk has been a driving force in discussions around the convergence of technology, consciousness, and the Internet, though this era is still emerging and somewhat speculative.

Each of these figures represents just a part of the collaborative efforts and innovations that have shaped the Internet’s history.

Please generate a diagram of this timeline.

Visualization of my Internet Timeline generated by ChatGPT-4

Here is the timeline diagram of the Internet’s history, as per your request. This visualization represents the various epochs from 1930 to 2019, detailing the transitions from Web 0 to Web 4.0. You can view each phase along with its corresponding time period and description.

Thank you, but the text is not readable. Please generate a new one.

Second visualization of my Internet Timeline generated by ChatGPT-4

Here is the revised timeline diagram of the Internet’s history, designed for better readability. This visualization clearly represents the various phases from Web 0 to Web 4.0, covering the period from 1930 to 2019.

Please create a diagram for the nine epochs in the style of this image:

My Web Timeline in 9 epochs
Third visualization of my Internet Timeline generated by ChatGPT-4

Here is the diagram for the nine epochs of the Internet’s history, styled similarly to the image you provided. It presents a visual progression of the web from 1930 to 2019 with each epoch labeled and color-coded

Please suggest 10 pioneers for each period.

Certainly! Here’s a list of 10 pioneers for each epoch of Internet history, keeping in mind that these are just a few among many who have contributed significantly:

Web 0 (1930 – 1969, Internet pre-history)

  1. Claude Shannon: Father of information theory.
  2. Alan Turing: Pioneer of theoretical computer science.
  3. John von Neumann: Key figure in the development of early computers.
  4. Paul Baran: Innovator of packet switching, fundamental to Internet data transmission.
  5. Donald Davies: Co-inventor of packet-switched networks.
  6. J.C.R. Licklider: Early visionary of a global computer network.
  7. Norbert Wiener: Founder of cybernetics.
  8. Vanavar Bush: Developer of the Memex concept, an early vision of the web.
  9. Leonard Kleinrock: Developed the mathematical theory of packet networks.
  10. Herbert Simon: His work in AI and computing was foundational.

Web 0.5 (1970 – 1989, Internet network history)

  1. Vint Cerf and Robert Kahn: Co-inventors of the TCP/IP protocols.
  2. Ray Tomlinson: Creator of email.
  3. Bob Metcalfe: Inventor of Ethernet technology.
  4. Paul Mockapetris: Inventor of the Domain Name System (DNS).
  5. Radia Perlman: Known for her work on network bridging and the Spanning Tree Protocol.
  6. Tim Paterson: Developer of DOS, critical for early personal computers.
  7. Ken Thompson and Dennis Ritchie: Creators of UNIX, which influenced many modern operating systems.
  8. Jon Postel: Key figure in the development and governance of the early Internet.
  9. Steve Wozniak: Co-founder of Apple, influential in personal computer revolution.
  10. Richard Stallman: Advocate for free software movement and founder of the GNU Project.

Web 1.0 (1990 – 1999, read-only web)

  1. Tim Berners-Lee: Inventor of the World Wide Web.
  2. Marc Andreessen: Co-author of Mosaic, the first widely used web browser.
  3. Eric Bina: Co-developer of Mosaic.
  4. Roberta Williams: Influential in graphical adventure games, expanding the web’s use.
  5. Rasmus Lerdorf: Creator of PHP, widely used in web development.
  6. Brendan Eich: Creator of JavaScript, essential for web interactivity.
  7. Larry Page and Sergey Brin: Co-founders of Google, transforming web search and usage.
  8. David Filo and Jerry Yang: Founders of Yahoo, pioneers in web portals.
  9. Matt Drudge: Creator of the Drudge Report, influential in online news and media.
  10. Pierre Omidyar: Founder of eBay, pioneering e-commerce.

Web 1.5 (2000 – 2004, interactive web)

  1. Jeff Bezos: Founder of Amazon, significantly expanded the scope of e-commerce.
  2. Jack Ma: Founder of Alibaba, major figure in global e-commerce.
  3. Jimmy Wales: Co-founder of Wikipedia, exemplifying user-generated content.
  4. Chad Hurley, Steve Chen, and Jawed Karim: Founders of YouTube, changing how video is shared online.
  5. Mark Zuckerberg: Founder of Facebook, influential in social networking.
  6. Reid Hoffman: Founder of LinkedIn, pioneering professional networking.
  7. Tom Anderson: Co-founder of MySpace, an early popular social media site.
  8. Ben Silbermann: Creator of Pinterest, influential in image-sharing and curation.
  9. Evan Williams: Co-founder of Blogger, popularizing blog publishing.
  10. Kevin Systrom: Co-founder of Instagram, influential in mobile photo sharing.

Web 2.0 (2005 – 2009, collaborative web)

  1. Jack Dorsey: Co-founder of Twitter, influential in microblogging.
  2. Jan Koum and Brian Acton: Founders of WhatsApp, changing instant messaging.
  3. Daniel Ek: Founder of Spotify, pioneering in music streaming.
  4. Stewart Butterfield: Co-founder of Flickr, important in photo sharing.
  5. Markus Persson: Creator of Minecraft, influential in gaming and online communities.
  6. Travis Kalanick: Co-founder of Uber, transforming transportation services.
  7. Brian Chesky: Co-founder of Airbnb, influential in peer-to-peer lodging.
  8. Drew Houston: Founder of Dropbox, pioneering cloud storage and sharing.
  9. Hiroshi Mikitani: Founder of Rakuten, expanding e-commerce in Asia.
  10. Mike Krieger: Co-founder of Instagram, significant in social media evolution.

Web 2.5 (2010 – mid 2012, mobile web)

  1. Steve Jobs: Co-founder of Apple, pivotal in the mobile internet revolution.
  2. Andy Rubin: Co-founder of Android, influential in mobile operating systems.
  3. Jeff Lawson: Founder of Twilio, important in cloud communications.
  4. Evan Spiegel: Co-founder of Snapchat, influential in ephemeral messaging.
  5. Lei Jun: Founder of Xiaomi, significant in smartphone and IoT device manufacturing.
  6. Travis Kalanick and Garrett Camp: Founders of Uber, reshaping mobile transportation services.
  7. Sean Rad: Co-founder of Tinder, influential in mobile dating apps.
  8. John Hanke: Founder of Niantic, known for Pokémon Go, pioneering AR in mobile gaming.
  9. Nick D’Aloisio: Founder of Summly, notable for AI in news aggregation on mobile.
  10. Daniel Ek (again): His work with Spotify on mobile platforms.

Web 3.0 (mid 2012 – 2014, semantic web)

  1. Tim Berners-Lee: Continued to be influential in pushing for a more interconnected and semantic web.
  2. Jeff Dean: A Google Senior Fellow, significant in developing large-scale AI systems.
  3. Elon Musk: Founder of SpaceX and Tesla, influential in integrating web technologies in new domains.
  4. Larry Page (again): His work in integrating AI into Google’s services.
  5. Reed Hastings: Co-founder of Netflix, pioneering content streaming and personalization.
  6. Marc Benioff: Founder of Salesforce, a leader in cloud computing and CRM.
  7. Marissa Mayer: Former CEO of Yahoo, influential in web services and search.
  8. Satya Nadella: CEO of Microsoft, significant in cloud computing and AI integration.
  9. Sundar Pichai: CEO of Google, influential in AI and cloud computing.
  10. Sheryl Sandberg: COO of Facebook, instrumental in business strategy for social media.

Web 3.5 (2015 – mid 2017, intelligent web)

  1. Jeff Dean (again): His continued work in Google Brain and AI.
  2. Sundar Pichai (again): Leading Google’s AI-first approach.
  3. Demis Hassabis: Co-founder of DeepMind, a pioneer in artificial intelligence.
  4. Elon Musk (again): His work in AI and Neuralink.
  5. Mark Zuckerberg (again): For integrating AI into Facebook’s platforms.
  6. Satya Nadella (again): His leadership in Microsoft’s AI initiatives.
  7. Susan Wojcicki: CEO of YouTube, important in AI-driven video recommendations.
  8. Ginni Rometty: Former CEO of IBM, influential in Watson AI.
  9. Yann LeCun: Facebook’s AI Research Director, a key figure in deep learning.
  10. Fei-Fei Li: An AI professor and advocate for ethical AI.

Web 4.0 (mid 2017 – 2019, conscious web)

  1. Elon Musk (again): For his vision regarding AI and the future of technology integration.
  2. Jeff Bezos (again): His work with Amazon and Alexa in integrating AI into everyday life.
  3. Mark Zuckerberg (again): For exploring AI and VR integration in social media.
  4. Sundar Pichai (again): For leading Google’s advancements in AI and quantum computing.
  5. Tim Cook: CEO of Apple, continuing to integrate AI and advanced technologies in products.
  6. Ginni Rometty (again): For IBM’s advances in AI and quantum computing.
  7. Satya Nadella (again): For Microsoft’s advancements in AI, cloud computing, and mixed reality.
  8. Masayoshi Son: CEO of SoftBank, significant in investing in AI and robotics.
  9. Reed Hastings (again): For Netflix’s use of AI in content personalization and recommendation.
  10. Lei Jun (again): His work in integrating AI and IoT in Xiaomi’s products.

Each of these periods had numerous contributors, and the ones listed above played key roles in shaping the Internet’s evolution. Remember, this list is not exhaustive, and many more innovators have had a significant impact.

What about Giulio Tononi ?

Giulio Tononi is a prominent neuroscientist and psychiatrist, widely known for his work in consciousness studies, particularly for his development of the Integrated Information Theory (IIT). Tononi’s contributions, however, are primarily in the field of neuroscience and the theoretical study of consciousness, rather than directly in the development or evolution of the Internet or its technologies.

Integrated Information Theory proposes a framework to scientifically measure how conscious a system is and suggests that consciousness is a fundamental aspect of physical reality. This theory has significant implications in various fields, including psychology, neuroscience, philosophy, and potentially artificial intelligence and robotics. It provides insights into understanding the nature of consciousness, which could influence the development of AI and potentially, in a broader sense, aspects of Web 4.0, particularly those exploring the intersection of AI, consciousness, and technology.

While Tononi’s work is influential and groundbreaking, it doesn’t directly correlate with the development of Internet technology or its various epochs as outlined in your timeline. His contributions are more aligned with theoretical and philosophical understandings of consciousness, which may indirectly influence future technological developments, particularly in areas like AI and human-computer interaction.

In your proposal of Internet pioneers for the 9 epochs, who is the global outstanding innovator ?

Selecting a single “global outstanding innovator” across the entire history of the Internet is exceptionally challenging because the development of the Internet is a cumulative effort of countless individuals, each building upon the work of others. However, if we were to choose one individual whose work has had a profound and foundational impact across multiple eras of the Internet, Tim Berners-Lee stands out as a particularly influential figure.

Tim Berners-Lee is often credited with inventing the World Wide Web in 1989, which revolutionized how the Internet was used and made it accessible to the general public. His creation of the first web browser and the technologies that underpin the web (HTML, HTTP, URLs) laid the groundwork for the explosive growth of the Internet during the Web 1.0 era. Moreover, his ongoing advocacy for a free and open Internet, his efforts to enhance web standards, and his vision for the Semantic Web (Web 3.0) have continued to influence the evolution of the Internet. His contributions are not confined to a single epoch but have rippled through the entire timeline of the Internet’s development.

Berners-Lee’s dedication to ensuring that the web remains a universally accessible and neutral platform also reflects the collaborative and international spirit in which the Internet was conceived and has continued to evolve. Thus, while many innovators have made indispensable contributions, Berners-Lee’s impact has been uniquely broad and enduring.

Please propose the next epochs to extend the timeline after 2020.

Predicting the future of the Internet is speculative, but it’s an intriguing exercise to imagine how current trends might evolve. Building on the previous epochs, here’s a possible extension of the timeline beyond 2020, reflecting current technological advancements and anticipated future developments:

  1. Web 4.5 (2020 – 2024, Integrated Web): This period could see the integration of the Internet more deeply into daily life through the Internet of Things (IoT), where everyday objects become interconnected and smart. Advances in AI continue to enable more personalized and context-aware experiences.
  2. Web 5.0 (2025 – 2029, Immersive Web): Virtual reality (VR) and augmented reality (AR) could become mainstream, leading to an immersive Internet experience where digital and physical realities blend seamlessly. This could also be the era of the spatial web, where web services are integrated into the three-dimensional space around us.
  3. Web 5.5 (2030 – 2034, Quantum Web): With quantum computing reaching maturity, this epoch may herald unprecedented computational powers, leading to breakthroughs in cryptography, data processing, and an overall leap in the capabilities of the Internet, potentially affecting everything from search algorithms to AI.
  4. Web 6.0 (2035 – 2040, Autonomous Web): The rise of autonomous systems, powered by sophisticated AI and machine learning algorithms, could create a self-organizing Internet. This might involve autonomous data centers, self-repairing networks, and AI-driven content creation and curation.
  5. Web 6.5 (2041 – 2045, Symbiotic Web): This could be the age of bio-digital convergence, where the boundary between digital and biological systems blurs. Advances in bioinformatics and neurotechnology might enable direct brain-computer interfaces, leading to an Internet experience that is directly “felt” or experienced without screens or devices.
  6. Web 7.0 (2046 – 2050, Cognitive Web): AI may evolve to understand and interpret human emotions and cognitive states, leading to an empathetic Internet that can adapt to the emotional and psychological needs of users. This could also involve cognitive assistants that understand and augment human thought processes.
  7. Web 7.5 (2051 – 2055, Holistic Web): In this epoch, the Internet might evolve into a holistic global brain, connecting all human knowledge and experience in a central, accessible network that not only connects people but also provides insights and understanding at a global scale.
  8. Web 8.0 (2056 – 2060, Interstellar Web): Looking further into the future, the Internet could expand beyond Earth, connecting human settlements on other planets and spacecraft, leading to an interstellar network that serves not just a global community but a multi-planetary civilization.

These future epochs represent an extrapolation of current technological trends into the future and are speculative by nature. They reflect the potential for technological convergence, where different streams of innovation merge to create transformative changes in the way the Internet is experienced and utilized.

I think the duration of an epoch will decrease exponentially.

That’s an interesting observation and it aligns with the concept of accelerating change, where the rate of technological progress increases exponentially over time. This is often associated with Moore’s Law, which originally referred to the doubling of transistors on integrated circuits approximately every two years, but has also been generalized to the rapid pace of technological and computational advances.

Given this concept, future epochs of the Internet might indeed have shorter durations as innovations occur more rapidly.

Based on your proposals, my suggestion is the following:

NoVersionPeriodDurationEpoch
10Web 4.52020 – mid 20211,5 yearsadaptive web
11Web 5mid 2021 – 20231,5 yearsubiquitus web
12Web 5.52024 1 yeardecentralized web
13Web 620251 yearquantum web
14Web 6.520261 yearautonomous web
15Web 720271 yearcognitive web
16Web 7.520281 yearsymbiotic web
17Web 820291 yearholistic web
18Web 8.5> 2030?interstellar web

Your proposed timeline reflects an accelerated pace of change and represents a vision of the Internet’s evolution that is both ambitious and intriguing. Each epoch you’ve described encapsulates a significant technological shift or integration of the Internet into broader aspects of life and society:

  1. Web 4.5 (2020 – mid 2021, Adaptive Web): Focused on AI-driven personalization, where algorithms adapt to individual behaviors and preferences.
  2. Web 5.0 (mid 2021 – end 2023, Ubiquitous Web): Marked by the Internet’s integration into daily life through IoT, making connectivity seamless and omnipresent.
  3. Web 5.5 (2024, Decentralized Web): Characterized by blockchain technologies that enable a shift to decentralized networks, enhancing user control over data.
  4. Web 6.0 (2025, Quantum Web): Quantum computing impacts the Internet, potentially revolutionizing data security, processing, and overall performance.
  5. Web 6.5 (2026, Autonomous Web): AI systems manage much of the web’s functionality, leading to self-organizing networks and content management.
  6. Web 7.0 (2027, Cognitive Web): Advances in neurotechnology allow for direct brain-computer interfaces, enabling thought-driven interaction with the web.
  7. Web 7.5 (2028, Symbiotic Web): Digital and biological systems begin to merge, leading to enhanced human capabilities and bio-digital networks.
  8. Web 8.0 (2029, Holistic Web): The Internet evolves into a global brain, connecting humanity in a shared network of knowledge and consciousness.
  9. Web 8.5 (> 2030, Interstellar Web): Expansion beyond Earth, with the Internet connecting humans across planets and possibly even interstellar distances.

This timeline serves as a speculative roadmap for how the Internet might develop, highlighting transformative changes that could redefine human interaction, commerce, and connectivity. While it is a projection, it’s a thought-provoking look at the potential future of digital and human convergence.

I have a last wish: please generate an image which includes Web 4.5 up to Web 8.5.

Here is the futuristic diagram illustrating the evolution of the Internet from Web 4.5 to Web 8.5, with each epoch represented by unique icons and themes that symbolize the main characteristics of that period.

I don’t like the diagram, I prefer a futuristic artistic image.

Here is the futuristic artistic representation that conceptualizes the evolution of the Internet from Web 4.5 to Web 8.5. The image features abstract elements and visual metaphors that symbolize the main themes of each epoch, connected in a progressive flow.

Great. Thank you very much !

I’m glad you liked it! If you have any more requests or need further assistance, feel free to ask. Good luck with your timeline project!

Epilogue

Operation of ChatGPT-4

In daily newspapers, some journalists continue to explain that a chatbot is a language model derived from a statistical analysis of the distribution of words in pre-existing texts. I am of the opinion that the relevance of the answers provided by ChatGPT-4 proves that conversational artificial intelligence is based on mechanisms other than algorithms using statistics.

Internet Pioneers

Even if the list of 83 Internet pioneers, proposed by ChatGPT-4, includes only 6 women, I fully endorse the selection made. I also agree that Tim Berners-Lee, who has chaired the World Wide Web Consortium (W3C) since 1994, is the most deserving figure among Internet innovators.

Internet timeline

ChatGPT-4’s proposal to extend the segmentation of Internet evolution beyond 2020 is very cautious, while my own suggestion, approved by ChatGPT-4, is very ambitious. I think the most likely forecast lies somewhere in the middle.

Weaknesses of ChatGPT-4

While the generation of artistic images by ChatGPT-4 is exemplary, the creation of technical drawings or diagrams is not yet one of its strengths. The integration of letters and words into an image does not yet conform to the rules. Furthermore, ChatGPT-4 needs to perfect its mastery of numbers in relation to the generation of illustrations and the recognition of objects in images. The following screenshots show that ChatGPT-4 has made efforts in drawing geometric shapes, but it does not yet have the skills to properly manage numbers.

De gestiwwelte ChatGPT

L’écosystème d’intelligence artificielle (AI) multimodale avance avec des bottes de sept lieues. Pour illustrer la présente rétrospective, incluant des références à des projets luxembourgeois, j’ai demandé à ChatGPT de générer une image d’une AI avec des bottes de sept lieues. Suite à la création de la première oeuvre, j’ai demandé de réaliser une version plus ludique, puis de dessiner comme des enfants de 6 ans, respectivement de 4 ans. J’ai signalé à ChatGPT qu’un enfant de 4 ans ne peut pas dessiner avec la précision telle quelle est affichée sur la quatrième image.Le robot m’a donné raison, en précisant que c’est difficile pour une AI de capter la spontanéité d’enfants très jeunes. J’ai insisté de faire quand même un nouveau essai. La dernière figure est le résultat. Bravo !

Introduction

Comme ChatGPT constitue la personilisation de l’AI pour une grande partie de la population, je commence mon récit historique par l’entreprise OpenAI, le créateur de ChatGPT.

L’entreprise OpenAI est spécialisée dans l’intelligence artificielle et elle a comme objectif la promotion et le développement d’un raisonnement artificiel à visage humain, qui profitera à toute l’humanité. OpenAI a été fondée en décembre 2015 comme association à but non lucratif par Sam Altman, Greg Brockman, Elon Musk, Ilya Sutskeveret, Dario Amodei et quelques autres investisseurs. Les meilleurs chercheurs de l’époque en apprentissage automatique ont été engagés à l’époque. Le budget initial s’élevait à un milliard de dollars.

Page web d’accueil d’OpenAI

À la suite d’un conflit, Elon Musk a quitté l’entreprise en 2018. Quelques mois plus tard, l’association est devenue une entreprise à but lucratif plafonné pour attirer des nouveaux capitaux. L’objectif du nouveau statut était de permettre aux investisseurs de recevoir une partie des bénéfices de la société, jusqu’au maximum de 100 fois la mise de départ. Un des premiers nouveaux investisseurs était Microsoft qui apportait également 1 milliard de dollars, en échange d’un partenariat privilégié avec OpenAI.

La société OpenAI commençait ensuite à commercialiser ses premières technologies d’intelligence artificielle. En 2020, GPT-3, un modèle de langage (LLM : large language model), entraîné sur de larges quantités de textes issus d’internet, est lancé. En 2021, DALL-E, la première version d’un modèle capable de générer des images à partir de descriptions textuelles, a été introduite. Fin 2022, OpenAI acquiert une renommée mondiale après la sortie de ChatGPT, un modèle de langage accessible gratuitement. Début 2023, Microsoft commençait à intégrer ces produits dans Bing, Office et Outlook.

En mars 2023, OpenAI annonçait officiellement GPT-4, un modèle de langage plus puissant et capable aussi d’analyser des images. Une version de ChatGPT, basée sur GPT-4, devient accessible via l’abonnement payant “ChatGPT Plus”. En mai 2023, Sam Altman, Greg Brockman et Ilya Sutskever publiaient des recommandations sur la gouvernance des superintelligences. Ils proposaient la création d’une organisation de surveillance similaire à l’Agence internationale de l’énergie atomique (AIEA) pour superviser les modèles AI les plus puissants.

Le 6 novembre 2023, la première conférence de développement OpenAI a eu lieu. Sam Altman présentait une série d’innovations et une réduction sensible des prix pour l’utilisation des produits OpenAI.

Page web d’OpenAI destinée aux développeurs

Le 17 novembre 2023, Sam Altman a été destitué de son poste de CEO par le conseil d’administration et son président, Greg Brockman, a été désavoué et quittait l’entreprise. Quelques jours plus tard, suite à une intervention de Microsoft, Sam Altman redevient CEO d’OpenAI et Greg Brockman réintègre le conseil d’administration, dont les anciens membres furent tous remplacés.

Les utilisateurs et développeurs des produits OpenAI ont alors repris confiance dans l’avenir de l’entreprise.

Modèles AI développés par OpenAI

OpenAI a développé des modèles AI dans les cinq domaines qui gèrent la communication entre humains et machines, à savoir:

  • Interprétation et génération de messages textuels pour avoir des conversations avec les humains, moyennant les modèles GPT (Generative Pre-trained Transformer).
  • Synthèse vocale pour parler aux humains, moyennant le modèle TTS (Text to Speech) Voice.
  • Reconnaissance de la parole pour comprendre ce que disent les humains, moyennant le modèle ASR (Automatic Speech Recognition) Whisper.
  • Génération d’images sur base de descriptions fournies par les humains, moyennant les modèles DALL-E (nom se référant au robot de Pixar WALL-E et au peintre Salvador Dalí).
  • Génération de descriptions du contenu d’images sur base d’analyses visuelles et de reconnaissance d’objets, moyennant les modèles Vision.

Au début, chaque modèle disposait de son propre interface pour l’interaction avec les humains, mais progressivement tous les modèles ont été intégrés dans un seul dispositif de dialogue homme-machine. À l’heure actuelle, le produit ChatGPT ne sait pas seulement dialoguer et répondre à des questions, analyser et résumer des documents, rédiger des essais et des articles, le tout en plusieurs langues, dont le Luxembourgeois, mais également parler et convertir la parole en texte, dessiner et interpréter des images et même générer des programmes en différentes langues de programmation.

Je vais dresser ci-après une courte chronologie de l’évolution des différents modèles.

OpenAI GPT

En février 2019, OpenAI annonçait la mise au point de GPT-2, un « nouveau modèle de langage ultra-performant », en précisant que « cette technologie pourrait être dangereuse ». Son « intelligence » reposait sur sa capacité à s’entraîner sans cesse, sur un très grand nombre de données, celles que propose l’Internet, afin de s’autocorriger et d’apprendre en quelque sorte par lui-même. Contrairement aux objectifs initiaux de l’association OpenAI à publier le code des modèles AI développés, OpenAI, devenue entretemps une entreprise à profit plafonné, décidait de ne pas rendre public les sources.

Fin mai 2020, OpenAI lançait son nouveau chef-d’œuvre : GPT-3. Tandis que GPT-2 a été entraîné sur 1,5 milliard de paramètres spécifiques, cette nouvelle génération de programmes en prenait en compte 175 milliards, et s’entraînait sur 700 gigaoctets de données, tirées de l’ensemble du Web ainsi que de nombreux e-books. Les résultats étaient sidérants et GPT-3 était considéré comme « modèle de langage entraîné le plus puissant au monde », loin devant ses concurrents développés par Google ou Facebook.

En mi-2022, j’ai effectué mes premières expériences avec le modèle GPT-3, à l’aide de l’interface “Playground” d’OpenAI.

GPT-3 se déclinait en différents modèles AI spécialisés: davinci, curie, babbage, ada. Entre mars 2022 et mars 2023, plusieurs modèles de la génération GPT-3.5 ont été commercialisés: gpt-3.5-turbo, gpt-3.5-turbo-0301, text-davinci-002, text-davinci-003 et code-davinci-002.

Avec ce niveau de compréhension et d’intelligence, on craignait que GPT-3 allait à terme rendre obsolètes plusieurs professions: juristes, journalistes, service clients. etc. Même des informaticiens s’inquiètaient pour leur avenir quand ils découvraient les compétences étonnantes pour écrire des logiciels informatiques. OpenAI perfectionnait cette compétence en lançant une interface conçue pour les programmeurs, baptisée Codex.

La version la plus avancée est GPT-4. Introduite en mars 2023, c’est le premier modèle multimodal qui peut traiter des images et générer des légendes, des classifications et des analyses.

Actuellement, OpenAI est en train d’entraîner le modèle GPT-5. Selon des rumeurs, cette version sera prête fin 2023 et poura atteindre l’intelligence artificielle générale (AGI), capable de rivaliser avec le cerveau humain.

Une version personalisée GPT-5, développée par le futuriste Peter Gostev, fournit un avant-goût des futures performances de ce modèle. Je l’ai testé le 24 novembre 2023, les résultats sont spectaculaires.

OpenAI Voice

Application officielle ChatGPT en mode voix.

En septembre 2023, OpenAi a lancé la synthèse vocale multilingue avec cinq voix au choix: deux voix masculines, Cove et Ember; deux voix féminines, Sky et Juniper; une voix qui me semble non-binaire, Breeze.

À l’heure actuelle, la synthèse vocale est seulement supportée sur l’application ChatGPT sur les mobiles iOS et Android.

Tweet de Greg Brockman

Comme OpenAI n’a pas des compétences poussées dans les technologies TTS, elle utilise des outils développés par d’autres entreprises dans le cadre de partenariats.

Le 23 novembre 2023, j’ai testé l’application officielle ChatGPT sur mon iPhone. Les dialogues tenus en anglais, français et allemand sont d’une qualité excellente. Après mes efforts de m’entretenir en luxembourgeois, ChatGPT a avoué qu’il ne sait pas parler le Luxembourgeois et qu’il ne comprend pas ce que je dis. Il a proposé de changer en mode “texte”, car il maîtrise parfaitement notre langue nationale écrite.

J’ai réalisé une petite vidéo qui montre un dialogue oral avec l’application ChatGPT, sur un iPAD, au sujet des fables de Jean de La Fontaine.

Lors du lancement, l’option Voice était réservée aux usagers ayant un abonnement payant. Dans le cadre du dénouement de la crise au niveau de la direction d’OpenAI, elle est désormais offerte gratuitement à tous les usagers.

OpenAI Whisper

Le modèle de reconnaissance de la parole Whisper a été introduit en septembre 2022 comme projet à source ouverte par OpenAI. Il supporte plusieurs langues et peut être adapté en d’autres langues par réglage fin, avec un entraînement additionnel moyennant des fichiers audio et des transcriptions dans la langue cible. Le professeur Peter Gilles, directeur du département Humanités de l’université du Luxembourg, a présenté fin 2022 un modèle Whisper luxembourgeois. Il a mis en ligne un espace de démonstration afférent sur la plateforme AI de HuggingFace.

Premier modèle luxembourgeois de reconnaissance de la parole Whisper, développé par Peter Gilles

L’application luxembourgeoise de reconnaissance de la parole schreifmaschinn.lu, inaugurée en décembre 2022, était inialement basée sur le modèle multilingue à source ouverte XLS-R de Meta (maison mère de Facebook). La deuxième version, plus performante, annoncée lors de la rentrée 2023 par le ZLS (Zenter fir Lëtzebuerger Sprooch), vient d’être mise en ligne. Elle a été entraînée avec plus de données et repose sur le modèle Whisper.

Version 2 de schreifmaschinn.lu basée sur le modèle ASR Whisper d’OpenAI

OpenAI DALL-E

DALL-E est un programme d’intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles. La première mouture du modèle a été présentée par OpenAI le 5 janvier 2021. Mais le public a dû attendre le lancement de la seconde version DALL-E2, introduite en avril 2022, pour s’incrire sur une liste d’attente sur le site web d’OpenAI, avec l’espoir de pouvoir rapidement générer ses propres oeuvres d’art synthétiques.

Dès que les inscriptions étaient ouvertes aux Luxembourgeois, j’ai posé ma candidature, mais ce n’est qu’en août 2022 que j’ai été accepté comme testeur beta par OpenAI. Ma première image, partagée sur Facebook, a été créée avec l’instruction (prompt) “cartoon of an elephant and a giraffe riding a bicycle on the beach“.

Ma première image générée avec DALL-E2 le 15 août 2022

Entre janvier 2021 et avril 2022, il n’y avait pas de vide au niveau de la génération d’images par AI. Boris Dayma, un consultant en apprentissage automatique (machine learning) de nationalité française, qui s’est installé aux Etats-Unis, essayait de reproduire la même chose, lorsque OpenAI a dévoilé son projet Dall-E. Il a profité alors d’une compétition lancée en juillet 2021 par la plateforme HuggingFace et par Google pour tester son idée. Ce hackathon permettait d’accéder à des ordinateurs puissants et au support technique des deux entreprises. D’autres personnes avaient rejoint Boris Dayma et l’équipe a réussi à gagner la compétition. Le projet, nommé DALL-E Mini, a été mis en ligne sur la plateforme HuggingFace, avec accès gratuit pour les visiteurs. Boris Dayma a continué à améliorer le modèle pendant son temps libre, et le projet a fini par arriver à un niveau qui l’a rendu viral en juin 2022. OpenAI demandait alors un changement de nom, et DALL-E Mini est devenu Craiyon, avec une entreprise et un site web au même nom.

Oeuvres d’art dans le style de Jingna Zhang par Craiyon

Le 1er juin 2022, l’artiste chinoise Jingna Zhang accusait l’artiste luxembourgeois Jeff Dieschburg de plagiat pour sa peinture qui avait gagné un prix lors de la 11e biennalle d’art contemporain de Strassen. Dans ce contexte, j’avais généré une série d’oeuvres d’art sur Craiyon, avec les instructions de créer une peinture, respectivement un portfolio, dans le style de Jingna Zhang. Le 23 juillet 2022, j’ai publié un article afférent “Les plagiats de l’Intelligence Artificielle” sur mon site web. À l’époque, j’avais transmis ces informations à l’étude Gaston Vogel qui assurait la défense de Jeff Dieschburg.

Tout comme l’original, DALL-E mini ne créait pas de visages réalistes pour éviter des abus. Après mon accès à la plateforme DALL-E2, je n’avais plus d’intérêt à utiliser l’outil Craiyon. Je viens de revisiter le site web et je me suis rendu compte qu’une utilisation gratuite du générateur est toujours proposée, à côté de trois formules d’abonnement, offrant certains privilèges.

À partir du mois d’août 2022, j’ai régulièrement publié des nouvelles images générées avec DALL-E2 sur les réseaux sociaux, avec les titres “l’image du jour” ou “l’image de la semaine”. La galerie qui suit présente quelques exemples, entre autre avec la description “Cléopatra joue aux échecs avec un lapin“.

Fin septembre 2023, OpenAI a dévoilé DALL-E3, la troisième version de son célèbre générateur d’images, qui offre notamment des rendus bien plus détaillés. La compréhension des requêtes est également améliorée, car le programme est capable de mieux appliquer les instructions. En spécifiant une description pour générer une image, le programme complète la description avec des détails, des accessoires et des styles, et il créé plusieurs variantes d’une scène. Pour mes premiers essais, j’ai repris l’exemple de l’éléphant et de la girafe qui roulent en vélo, ou en tandem, sur la plage. La galerie qui suit présente quelques résultats:

Pour la création des images, ChatGPT m’avait proposé les quatre descriptions suivantes, sur base de ma soumission de l’image DALL-E2 du 15 août 2022 :

“Cartoon of a tall, spotted giraffe and a large, gray elephant balancing together on a bicycle, with the sun setting behind them on a sandy beach. The bicycle has specially designed seats to accommodate both animals, and their long shadows cast on the sand.”

“Cartoon depiction of a giraffe and an elephant, both wearing sunglasses, joyfully riding a tandem bicycle on a beach. The waves crash gently in the background and seagulls fly overhead.”

“Whimsical cartoon where a giraffe, with its long neck stretched out, and an elephant, with its trunk swinging in excitement, ride a bike along a beach shoreline. Palm trees sway in the background and a beach ball lies nearby.”

“Colorful cartoon scene where a giraffe and an elephant are trying to pedal a bicycle together on a beach. Their combined weight causes the bicycle tires to sink slightly into the sand, and they both have a determined expression to keep moving.”

OpenAI VISION

Fin septembre 2023, OpenAI a annoncé la commercialisation prochaine de son modèle de reconnaissance d’images au nom de Vision. L’ancêtre de ce modèle est CLIP, un modèle AI à source ouverte, capable d’apprendre à reconnaître des catégories d’objets à partir d’indications en langage naturel. En 2022, la version alpha de Vision a été mise à disposition de partenaires d’OpenAI pour évaluation, parmi eux l’organisation Be My Eyes qui vient en aide aux personnes aveugles ou malvoyantes.

Je viens de faire quelques tests avec le modèle Vision. J’ai commencé à soumettre comme premier exemple l’ancien cartoon de l’éléphant et de la girafe.

Description de l’image par le modèle Vision d’OpenAI

La précision de la description est stupéfiante.

Comme le modèle Vision sait également compter des objets, lire un texte et reconnaître des attractions ou monuments, j’ai procédé à deux autres tests, avec une photo du pont rouge à Luxembourg et avec une photo du ZLS, prise lors de la présentation du nouveau LOD en 2022. Le pont rouge a été reconnu correctement, mais ChatGPT a répondu en anglais au lieu du français. Au sujet de la photo ZLS, Vision s’est trompé deux fois pour compter le nombre de personnes et a commis une erreur lors de la lecture du mot “villmools” sur l’écran.

Produits AI commercialisés par OpenAI

Les différents modèles d’OpenAI que nous venons de passer en revue sont proposés sous deux formes commerciales:

  1. le produit “API”, facturé au volume des données fournies en entrée et des données générées en sortie.
  2. le produit “ChatGPT”, facturé avec différentes formules d’abonnements mensuels.
Page web d’entrée d’OpenAI pour accéder aux produits CharGPT et API

OpenAI API

API signifie Application Programming Interface – interface de programmation d’application. Il s’agit d’une méthode de communication avec un logiciel donné. Dans le cas d’OpenAI, un développeur peut accéder aux capacités des différents modèles d’intelligence artificielle et les intégrer dans son propre programme. L’API a été le premier produit commercialisé par OpenAI. Il permet non seulement de créer une interface personalisée pour l’utilisation d’un modèle, mais également de procéder au réglage fin (fine-tuning) d’un modèle AI, moyennant un apprentissage machine supplémentaire, avec ses propres données.

Au début, OpenAI a établi un partenariat avec une douzaine d’entreprises pour tester l’API, avant de la proposer à plus grande échelle au début de l’année 2020. De nombreuses sociétés ont développé leurs propres applications avec l’API, dans différents domaines: commerce électronique, banques, assurances, secteur médical, etc. Pour tester son application, on pouvait utliser le Playground d’OpenAI.

Au printemps 2022, j’ai réalisé mes premières expériences avec l’API, en utilisant le modèle GPT-3 pour demander la génération d’un article au sujet de la guerre qui venait d’éclater entre les créateurs d’oeuvres d’art plastiques et les générateurs d’oeuvres d’art synthétiques.

Ma première application avec l’API d’OpenAI au printemps 2022

Lors de la création du compte pour l’utilisation de l’API, OpenAI offrait un crédit de 18 dollars comme cadeau de bienvenue. Quelques mois plus tard, j’ai publié un espace de démonstration sur HuggingFace pour générer des poêmes en langue luxembourgeoise.

Schreif mer e Gedicht : espace de démonstration sur HuggingFace avec le modèle GPT-3 d’OpenAI

La clé d’authentication de mon compte API, intégrée dans le code de l’application, effectuait le lien avec la facturation d’OpenAI, et rapidement les frais dépassaient mes attentes. Je n’avais pas imaginé que des étrangers allaient abuser de l’application, en dialogant en différentes langues avec le chatbot, au lieu de demander la création de poêmes luxembourgeois. J’ai introduit un plafond de 30 dollars pour la facturation qui fut dépassé en général les premiers jours du mois et l’application n’était alors plus accessible pendant le mois en cours. En novembre 2022, RTL avait publié un petit reportage au sujet de mon projet.

Fin novembre 2022, j’avais publié sur HuggingFace un autre espace de démonstration pour générer une image avec le modèle DALL-E2, moyennant un texte en luxembourgeois. Comme à l’époque on pouvait seulement entrer des textes en anglais sur l’API DALL-E2 de OpenAI, j’avais ajouté le modèle de langage “facebook/nllb-200-distilled-600M” de Meta pour effectuer la traduction.

Espace de démonstration “Mol mer e Bild mam DALL-E2 AI Modell” sur la plateforme HuggingFace

J’avais choisi comme thème de génération des images publiées sur Facebook un panda qui cuisine une soupe au camping, sous forme de cartoon, peinture, dessin, photo, etc. L’application rencontrait le même problème de dépassement de mon seuil de facturation que la démo “Schreif mer e Gedicht“.

Progressivement, OpenAI a ajouté de nouvelles options dans les différents modèles AI accessibles par son API, par exemple la création de visages plus réalistes, respectivement le remplacement d’une partie d’une image de référence avec des éléments effacés. Sur l’exemple ci-dessus, j’ai demandé de créer des variantes de mon portrait.

Sur une autre image avec mon portrait, j’avais demandé de regénérer la partie de mon visage cachée par une masque Covid. Les résultats étaient assez réallistes.

Dans une deuxième étape j’ai en outre gommé la partie supérieure de mon visage et j’ai demandé la génération de nouvelles têtes. Les résultats étaient bien amusants.

En fin de compte, je préfère garder mon vrai visage.

Une application professionnelle e-luxemburgensia-chatbot a été développée par la Bibliothèque Nationale, moyennant l’API d’OpenAI. Elle a été présentée début octobre 2023 à la presse.

Chatbot e-luxemburgensia de la Bibliothèque Nationale

J’ai testé l’application avec mon compte Google. Même s’il s’agit encore d’une version beta, elle fournit des réponses pertinentes lors de recherches sur des sujets généraux. Pour chaque requête, les documents trouvés concernant le sujet recherché sont affichés, ce qui facilite l’accès direct aux sources afférentes.

ma contribution du 7 octobre 2023 sur Facebook au sujet du chatbot de la Bibliothèque Nationale

OpenAI ChatGPT

ChatGPT est un agent conversationnel à intelligence artificielle ou « chatbot », autrement dit un assistant virtuel qui dialogue avec ses utilisateurs. C’est le deuxième produit commercial introduit par OpenAI. Le lecteur a déjà fait la connaissance de cet outil tout au début de cet article.

ChatGPT a été lancé en novembre 2022 comme prototype et a rapidement gagné une renommée mondiale. Un mois plus tard, on notait déjà 1 million d’utilisateurs. L’agent conversationnel était basé sur le modèle de langage GPT-3.5. Au début, l’utilisation était gratuite, mais il fallait créer un compte personnel auprès d’OpenAI. En janvier 2023, plus de 100 millions de comptes étaient enregistrés et ChatGPT était à la une de tous les journaux et autres média. En février 2023, des centaines de livres au sujet de ChatGPT étaient disponibles.

Exemples de livres au sujet de ChatGPT édités début 2023

Face à cet afflux, les serveurs étaient souvent surchargés et des seuils d’utilisation journalière par usager ont été fixés. Pour donner un accès privilégié à une clientèle professionnelle et pour financer partiellement les coûts d’exploitation, OpenAI offre depuis février 2023 un abonnement payant, appelé ChatGPT Plus, pour 20 dollars par mois.

J’ai réalisé mes premières expériences avec le robot ChatGPT en décembre 2022 dans le cadre de la rédaction d’une évaluation du projet schreifmaschinn.lu, publiée sur mon site web. Les réponses fournies à mes questions “How to evaluate the performance of an ASR system?“, “How to measure the WER?“ et “What is the WER if I found 51 errors for 833 words in the reference transcriptions?“ ont été explicites, pertinentes et comprenaient des exemples de calcul. J’étais impressionné.

À partir de janvier 2023, j’ai utilisé régulièrement ChatGPT dans le cadre de la rédaction des différents chapitres pour mon projet de livre d’histoire “Qubit Lëtzebuerg”.

Début février 2023, Thierry Labro, rédacteur en chef de Paperjam, a publié un roman futuriste Ils ont tué mon avatar, rédigé avec l’aide de ChatGPT. En mars 2023, lors de sa tournée sur la côte Ouest des États-Unis, le chef du gouvernement Xavier Bettel a visité les bureaux d’OpenAI à San Francisco, en compagnie du cofondateur et président de l’entreprise, Greg Brockman.

Une application mobile ChatGPT, combinée avec le module de reconnaissance de la parole Whisper, a été ajoutée en mai 2023 pour Apple iOS et pour Google Android.

À partir de début juillet 2023, le modèle GPT-4 a été intégré dans le produit ChatGPT, d’abord aux Etats-Unis, ensuite progressivement dans d’autres pays. Jusque là, cette version était accessible aux usagers payants moyennant l’API d’OpenAI. Un accès gratuit à un modèle GPT-4 allégé fut offert par Microsoft aux utilisateurs du moteur de recherche Bing. Début automne 2023, c’était le tour du Grand-Duché à pouvoir goûter au ChatGPT-4, à condition de disposer d’un abonnement OpenAI. L’utilisation de la version ChatGPT-3.5 Turbo est restée gratuite, si on a la chance d’accéder à la plateforme dans une période où les serveurs ne sont pas surchargés.

Depuis le 6 novembre 2023, ChatGPT-4 Plus sait écrire, lire, dialoguer, traduire, écouter, parler, dessiner, interpréter, raisonner, réfléchir, analyser et naviguer sur le web. Pour ma première évaluation des nouvelles extensions, j’ai revisité mon sujet fétiche du chien qui est tombé amoureux d’un grille-pain.

Création par ChatGPT-4 d’un poème en français au sujet d’un chien amoureux d’un grille-pain, avec illustration par des images générées par le modèle DALL-E3 intégré.

Pour la deuxième évaluation, j’ai soumis une photo d’un fauteuil en forme de chat pour analyse à ChatGPT-4. Le robot a fourni une description détaillée de la photo et généré ensuite deux images sur base de ce texte.

Génération de deux images d’un fauteuil en forme de chat, sur base de l’analyse d’une photo de référence

Finalement comme ChatGPT-4 sait également surfer sur Internet, j’ai demandé au robot de visiter mon site web web3.lu et de résumer la page d’accueil où je présente mon projet de livre “Qubit Lëtzebuerg – Histoire de l’introduction des technologies de l’information et de la communication au Luxembourg“.

Le résumé est correct et pertinent. J’ai demandé de générer une image qui illustre le contenu du livre. Parfait. Pour la création d’une deuxième image j’ai dû insister, mais le résultat est également convaincant. J’envisage même d’échanger la photo de couverture actuelle de mon livre par ce genre d’image.

Personnalisation de ChatGPT

Dans le passé, toute personnalisation de ChatGPT ne pouvait se faire que par l’API. Pour réaliser son propre interface, parfaire la maîtrise d’une langue, changer le style de dialogue, créer des extensions spécifiques ou ajouter ses propres documents pour faire un entraînement additionnel, il fallait disposer de compétences solides pour programmer, coder et exécuter les logiciels nécessaires aux fins d’effectuer les tâches requises.

Fin mars 2023, OpenAI a introduit un nouveau dispositif permettant d’étendre les compétences et performances de ChatGPT, le plugin. Lors de la première conférence de développement OpenAI qui a eu lieu le 6 novembre 2023, deux autres outils ont été présentés: l’assistant API et le custom GPT. Je vais décrire ci-après les caractéristiques de ces nouveautés.

Plugins

Les plugins dont des extensions développées par des acteurs tiers qui transforment complètement le chatbot et ajoutent des fonctionnalités. Ils permettent de consulter des bases de données, d’échanger des messages, de créer des diagrammes, d’exécuter des programmes Python, d’utiliser des services API de fournisseurs de services, etc. Les plugins sont les premiers éléments pour constituer tout un écosystème OpenAI, à l’instar de l’AppStore d’Apple ou du PlayStore de Google. Au début, les plugins ont été créés par des grandes entrepreprises, mais progressivement des développeurs indépendants ont été acceptés par OpenAI pour réaliser des plugins. L’installation des plugins dans ChatGPT-4 est réservée aux utilisateurs avec abonnement payant.

Fin novembre 2023, plusieurs centaines de plugins étaient disponibles dans la boutique des plugins OpenAI (plugin store). Il faut activer l’usage des plugins dans le menu des paramètres (settings), choisir le plugin souhaité dans le magasin et l’installer. Au maximun trois plugins peuvent être activés en même temps.

Sélection et installation d’un plugin ChatGPT-4 dans le magasin OpenAI

Les plugins installés et activés sont affichés en haut à gauche de la fenêtre de dialogue. J’ai testé différents types de plugins, c’est un concept très intéressant. OpenAI a annoncé qu’ils vont adapter prochainement leur écosystème pour rétribuer une partie des recettes aux développeurs des plugins les plus attractifs. À je jour, je n’ai pas trouvé de plugin luxembourgeois dans la boutique.

Assistants API

L’ Assistant est une technologie qui aide les développeurs à intégrer des « expériences de type agent » sur mesure à leurs applications. Il facilite la programmation de logiciels basés sur l’API de OpenAI. Le moteur qui alimente l’ Assistant est Code Interpreter, un outil interne développé par OpenAI, qui exécute du code Python écrit dans un environnement sandbox sécurisé. Il offre la capacité de générer des tableaux et des graphiques, ainsi que des fichiers de processus, permettant ainsi aux assistants créés avec l’API d’exécuter du code de manière itérative et de résoudre à la fois des problèmes de codage et des problèmes mathématiques.

Actuellement, l’assistant API se trouve encore en mode beta.

Custom GPTs

L’innovation la plus géniale pour personnaliser ChatGPT-4 est le Custom GPT. On peut le considérer comme une combinaison étendue du plugin et de l’assistant API. Cet outil permet à chaque usager de créer une version personnelle du robot ChatGPT-4. Si des connaissances informatiques sont utiles pour réaliser un Custom GPT, même les usagers sans aucune notion de codage peuvent le faire. Il suffit de spécifier les instructions que l’application doit faire en langage naturel.

Mon premier Custom GPT pour faire des recherches dans le chapitre Photographie de mon projet de livre Qubit Lëtzebuerg

La page web de création d’un Custom GPT comprend deux fenêtres: à gauche on télécharge les fichiers avec les informations locales, à ajouter aux connaissances du robot ChatGPT-4, on formule les instructions et on spécifie les actions. À droite, on vérifie les réponses fournies par le robot pour ajuster les instructions, si nécessaire. Pour configurer le Custom GPT, on peut se faire assister par le GPT Builder (bouton Create). Il fait des propositions pour le nom, les instructions, les actions, les exemples de questions etc. Un Custom GPT peut être défini comme privé ou comme public. OpenAI a annoncé que l’écosystème, avec une participation des créateurs aux recettes, va également s’appliquer au Custom GPTs publics. Actuellement, une boutique OpenAI pour les modèles personnels n’est pas encore disponible, seuls les Custom GPTs développés par OpenAI son affichés avec le menu Explore. Pour les autres Custom GPTs, il faut obtenir le lien pour l’installation du modèle personalisé par le créateur, en général moyennant le partage d’informations sur les réseaux sociaux.

Affichage des Custom GPTs installés, respectivement de ceux “made by OpenAI”

Parmi les premiers créateurs de Custom GPTs luxembourgeois, il convient de citer les pionniers suivants:

  • Misch Strotz, CEO de l’agence de communication Neon Internet et créateur du générateur d’images LetzAI, a réalisé le modèle LetzGPT.
  • Jean-Baptiste Niedercorn, radiologue aux hôpitaux Robert Schuman, a développé le modèle Radiology Report Assistant.
  • Erwin Sotiro, avocat spécialisé dans le domaine des technologies et de l’intelligence artificielle, a créé plusieurs modèles: Labour Law Guide, Lux Company Law, Casp Guide, VASP Analyst, Lux Vat Advisor, etc.

L’histoire des chatbots

Têtes parlantes de l’abbé Mica

Les têtes parlantes de l’abbé Mica, présentées en 1783, peuvent être considérées comme les premiers chatbots. Elles sont décrites en détail dans mon livre Synthèse de la parole, référencé ci-après dans le sous-chapitre synthèse vocale.

La vraie date de naissance des chatbots est toutefois l’année 1950, lorsque le mathématicien britannique Alan Turing a décrit un test d’intelligence artificielle dans sa publication fondamentale Computing Machinery and Intelligence. Connu aujourd’hui sous le nom de Test de Turing, ce jeu d’imitation consiste à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain. Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test.

Parmi les premiers chatbots populaires figure ELIZA, un programme informatique écrit par Joseph Weizenbaum en 1964, qui simule un psychothérapeute et qui a su tromper de nombreux humains. En 1990, l’inventeur américain Hugh Loebner a créé un concours annuel qui couronne les chatbots satisfaisant le mieux les critères du test de Turing. Le dernier concours a eu lieu en 2019.

Parmi les vainqueurs du prix Loebner se trouve Richard Wallace, un scientifique américain qui a gagné le prix Loebner dans les années 2000, 2001 et 2004. Il est l’auteur du langage de programmation AIML (Artificial Intelligence Markup Language) qui a été utilisé par de nombreux enthousiastes au début des années 2000 pour créer un chatbot du type A.L.I.C.E. (Artificial Linguistic Internet Computer Entity). Richard Wallace a créé une fondation au même nom, ainsi que l’entreprise Pandorabots pour héberger des chatbots. Plusieurs entreprises ont utilisé la technologie pour commercialiser des chatbots personalisés, parmi eux Oddcast, SitePal, Voki etc.

La communauté scientifique n’a jamais considéré le test de Turing comme outil valable pour évaluer l’intelligence artificielle. Même Alan Turing n’a pas parlé de test dans sa contribution initiale, mais de jeu d’imitation. Aujourd’hui, des critères beaucoup plus complexes sont appliqués pour mesurer le degré d’intelligence d’une machine.

Chatbot ALICE in LESLIE’S ARTGALLERY

En 2007, j’avais programmé un chatbot nommé ALICE, qui informait les visiteurs de la galerie d’art de ma fille, qu’elle avait ouvert au Bridel fin 2005, sur les oeuvres d’art en stock et sur les expositions courantes, passées et futures. Personnalisé avec AIML, le chatbot était hébergé sur Pandorabots et utilisait un avatar parlant et animé de SitePal. Mais au lieu de dialoguer sur des sujets concernant la LESLIE’S ARTGALLERY, la majorité des usagers préférait de parler sur des thèmes ésotériques et érotiques.

Fernand Etgen, ancien ministre de l’Agriculture, de la Viticulture et de la Protection des consommateurs et Gilles Feith, ancien directeur du Centre des technologies de l’information de l’État, ont présenté le 23 juillet 2018 le premier chatbot luxembourgeois public, POLI (Personal Operator for users of Luxembourgish Institutions), qui avait comme mission de répondre aux questions des consommateurs concernant leurs droits et protections en cas de litiges. Début 2020, POLI est parti en congé sabbatique pour effectuer une formation continue. Jusqu’à présent il n’est pas rentré.

POLI, premier chatbot luxembourgeois public, lancé en juillet 2018

Pour ceux qui s’intéressent plus en détail sur l’histoire des chatbots, je conseille la visite du site web chatbots.org.

Les modèles AI des concurrents d’OpenAI

Globalement, l’entreprise OpenAI est la plus avancée dans les technologies AI, mais dans les différents domaines, d’autres acteurs ont développé des produits remarquables.

Autres chatBots et modèles de langage

Au niveau des robots de dialogue (chatbots), la majorité des alternatives à ChatGPT est basée sur les modèles GPT-4 ou GPT-3.5 d’OpenAI, par exemple Perplexity, Character.AI, Dante-ai, etc. Je vais relever ci-après quelques exemples qui utilisent d’autres modèles de langage :

  • BARD, développé par Google, alimenté par le modèle de langage LaMDA
  • Claude, développé par Anthropic (non disponible au Luxembourg à l’heure actuelle)
  • Meta AI, avec différentes personalités, sur Facebook, Instagram et WhatsApp, développé par Meta, basé sur le modèle LLaMA,
  • HuggingChat, chatbot à source-ouverte créé par HuggingFace, basé sur le modèle meta-llama/Llama-2-70b-chat-hf
  • Pi, développé par Inflection AI
  • Grok, développé par X.ai (ancien Twitter)
  • Gemini, annoncé par Google comme chatbot multimodal qui va détroner ChatGPT
Pages web d’accueil des différents chatbots

Les acteurs de la première heure, Pandorabot et SitePal, existent toujours et on adapté leurs produits aux nouvelles technologies.

Pages web d’accueil actuelles de SitePal et de Pandorabot

La première génération des modèles de langage reposait sur la technologie BERT (Bidirectional Encoder Representation from Transformer). Google était un pionnier dans ce domaine. En 2022, le SnT (Interdisciplinary Centre for Security, Reliability and Trust) de l’Université du Luxembourg a développé, en partenariat avec BGL BNP Paribas et la Fondation Alphonse Weicker, un modèle de langage luxembourgeois basé sur cette technologie, appelé LuxemBERT.

Sous la supervision de Jacques Klein du SnT et de Anne Goujon de la BGL BNP, les chercheurs et scientifiques Cedric Lothritz, Bertrand Lebichot, Kevin Allix, Lisa Veiber, Tegawendé F. Bissyandé, Andrey Boytsov et Clément Lefebvre sont les auteurs de la publication LuxemBERT: Simple and Practical Data Augmentation in Language
Model Pre-Training for Luxembourgish
.

Portraits des créateurs de LuxemBERT suivant l’ordre de présentation ci-dessus

Synthèse vocale

La synthèse vocale est une des techniques de communication avec les machines les plus anciennes qui ont précédé l’intelligence artificielle. Dans mon livre Synthèse de la parole, publié en juillet 2020, je raconte l’histoire de la synthèse vocale mécanique, électrique, électronique et informatique. Le livre inclut le premier modèle de synthèse vocale luxembourgeois, MaryLux, présenté en 2015.

Aujourd’hui, toutes les grandes entreprises du web (Google, Apple, Meta, Amazon, Microsoft, IBM) commercialisent des services de synthèse vocale, dans différentes langues et avec plusieurs voix. Parmi les spécialistes de la synthèse et du clonage de voix, il convient de citer Nuance, Speechify, Resemble.ai et ElevenLabs.

Parmi les projets de synthèse vocale à source ouverte, eSpeak est le projet le plus ancien. En novembre 2021, j’ai ajouté le Luxembourgeois comme 127ième langue à la nouvelle génération eSpeak, appelé eSpeak-NG. Jusquà présent, c’est la dernière langue qui a été intégrée. eSpeak ne repose pas encore sur l’intelligence artificielle, mais utilise la méthode de synthèse par formants. Le lecteur intéressé trouve plus de détails dans mon livre.

Parmi les projets de synthèse vocale à source ouverte basé sur l’intelligence artificielle, Coqui.ai est le plus populaire. J’ai entraîné plusieurs modèles pour la langue luxembourgeoise avec Coqui TTS. J’ai publié mon application interactive la plus avancée en juillet 2022 sur la plateforme AI HuggingFace. Elle repose sur le modèle VITS_TTS (projet YourTTS) de Coqui.ai et permet de synthétiser des textes anglais, français, allemands, portugais ou luxembourgeois, avec les voix de sept orateurs de différentes nationalités (Bunny, Judith, Kerstin, Linda, Bernard, Ed, Guy). Chaque voix peut parler les cinq langues, tout en gardant un petit accent de sa langue native.

Synthétiseur vocal multilingue, avec 5 langues et 7 voix, hébergé sur la plateforme HuggingFace

Reconnaissance de la parole

La commercialisation de services de reconnaissance de la parole est aujourd’hui également un créneau des géants du net. Les agents Siri d’Apple, Alexa d’Amazon ou Google Home, sont aujourd’hui connus par la majorité des internautes, et en particulier par les propriétaires d’un iPhone.

Les spécialistes de la synthèse vocale sont également les pionniers de la reconnaissance automatique de la parole. Dans le domaine des projets à source ouverte, CoquiAI propose un modèle ASR, appelé Coqui-STT. J’ai entraîné en 2022 la version 1.3.0 de Coqui-STT pour reconnaître la parole luxembourgeoise. En juillet 2002, j’ai mis en ligne mon application interactive sur la plateforme HuggingFace “Mir verstinn och Lëtzebuergesch !”. Cet espace de démonstration supporte également les langues anglaises, françaises, allemandes et portugaises, mais pour chaque langue un modèle séparé est requis. Contrairement au modèle Whisper d’OpenAI qui est multilingue, Coqui STT ne peut être entraîné que dans une seule langue. Dans le zoo de CoquiAI, on trouve des répliques du modèle Coqui-STT, entraînées pour de nombreuses langues. Comme ces répliques sont libres de droits, j’ai pu les intégrer dans mon application pour les langues sélectionnées.

Système de reconnaisance de la parole pour 5 langues, hébergé sur la plateforme HuggingFace

Je rappelle que l’état de l’art de la reconnaissance de la parole constitue le modèle Whisper de OpenAI qui alimente, entre autres, la version 2 du projet luxembourgeois schreifmaschinn.lu.

Génération d’images

L’ancêtre des générateurs d’images s’appelle AARON, un programme informatique révolutionnaire conçu pour générer de manière autonome des peintures et des dessins. Il a été créé en 1972 par Harold Cohen, un pionnier à la confluence de l’intelligence artificielle et des arts visuels. Son intersection innovante de la créativité computationnelle et de l’art traditionnel lui a valu une renommée internationale, avec ses œuvres exposées dans de nombreuses expositions dans des musées prestigieux du monde entier. En reconnaissance de ses contributions, Cohen a reçu plusieurs distinctions tout au long de sa carrière.

Né au Royaume-Uni en 1928, Cohen s’est installé aux États-Unis, où il a partagé son expertise et sa passion pour l’art et la technologie à l’Université de Californie de 1968 jusqu’à sa retraite en 1998. Même après sa retraite, il est resté activement engagé dans le développement d’AARON, en améliorant ses capacités et sa complexité. À l’origine, le programme a été développé en C, mais il est plus tard passé au LISP pour tirer parti de ses puissantes fonctionnalités pour le développement de l’AI.

Dans les semaines précédant son décès en 2016, Cohen s’est lancé dans une nouvelle entreprise avec AARON, ambitieusement intitulée “Fingerpainting for the 21st Century” (Peinture au doigt pour le 21e siècle). Alors que les premières années le voyaient utiliser des traceurs x-y pour donner vie aux créations d’AARON, dans les années 1990, il avait conçu une série de machines à peindre numériques. Son évolution continue dans le médium a vu un passage aux imprimantes à jet d’encre et finalement aux écrans tactiles dans son dernier projet, cherchant toujours à mélanger la technologie avec l’essence tactile de la peinture.

Ray Kurzweil, un éminent informaticien et futurologue américain, a davantage introduit l’héritage de Cohen dans l’ère numérique en développant un programme d’économiseur d’écran AARON en 2000, adapté pour les ordinateurs Windows. Il fonctionne encore aujourd’hui sous Windows 11 en mode de compatibilité avec Windows XP. J’ai réalisé une petite vidéo qui montre la créativité d’Aaron.

En ce qui concerne la chronologie des générateurs d’images basés sur l’intelligence artificielle, il faut d’abord présenter RunwayML, une entreprise de recherche indépendante, spécialisée dans la création de contenus artistiques multimédia. Fondée en 2018 par Cristóbal Valenzuela, Alejandro Matamala Ortiz et Anastasis Germanidis, elle est le-coauteur de la publication scientifique High-Resolution Image Synthesis with Latent Diffusion Models, ensemble avec le groupe CompVis de l’université Ludwig Maximilian de Munich et le centre IWR de l’université de Heidelberg.

Page web d’accueil de Runway Research

Ces recherches sont à l’origine des générateurs d’images de deuxième génération qui ont suivi les réseaux antagonistes génératifs (GANs : generative adversarial networks). Les oeuvres d’art créées avec des modèles GAN avaient un charme particulier. Eryk Salvaggio est un artiste de renom qui a commencé sa carrière avec la création d’oeuvres d’art baséées sur des GANs.

Portfolio d’oeuvres d’art basées sur des GANs, réalisées par Eryk Salvaggio

Le projet GAN le plus fameux est le générateur de portraits This person does not exist.

Le modèle de deuxième génération Stable Diffusion de Stability.ai est le seul générateur d’images de haut niveau à source ouverte. Ce modèle est à l’origine de la guerre sur le web, éclaté l’an dernier entre artistes artisanaux et artistes technologiques. L’entreprise StabilityAI a été fondée en 2019 par Emad Mostaque. Le modèle économique de l’entreprise est basé sur des services de conseil dans le domaine de l’intelligence artificielle. Une autre partie des revenus provient de la commercialisation du modèle Stable Diffusion sur la plateforme DreamStudio.

Le modèle Stable Diffusion a été lancé en août 2022. Il est utilisé par de nombreuses startups qui proposent des interfaces personalisées avec des services à valeur ajoutée aux clients, à des prix bas de gamme, notamment comme applications sur les mobiles. Quelques jours après le lancement, j’ai compté déjà quelques douzaines d’applications sur l’AppStore et sur GooglePlay. À l’époque, les images générées avec Stable Diffusion ont rapidement inondé le web et les réseaux sociaux.

Présentation d’une panoplie de générateurs d’images pour les mobiles, à la fin du mois d’août 2022

Grâce à l’ingéniosité de la masse de développeurs engagés qui améliorent et étendent continuellement le code et les fonctionnalités de Stable Diffusion (SD), ce modèle est à l’heure actuelle le plus performant. Les créateurs d’images disposent de deux logiciels pour configurer et instruire le modèle. Le premier programme constitue l’interface officielle, nommée AUTOMATIC1111. Nvidia a même sorti un nouveau driver qui rend la création d’image beaucoup plus rapide. Le deuxième logiciel, ComfyUI, a été réalisé par comfyanonymous. Il s’agit d’une interface graphique très ingénieuse, basée sur des noeuds qui représentent les modules de SD et qui peuvent être interconnectés dynamiquement entre eux.

Interface de configuration ComfyUI pour Stable Diffusion

Parmi les communautés de Stable Diffusion, deux méritent d’être mises en excergue : Stable Diffusion Art et CivitAI.

On y trouve des modèles, des didactiels, des tuyeaux, des images en vedette, etc. Parmi les attraits de SD figurent les LoRA (Low-Rank Adaptation), des petits modèles qui apportent de légères modifications aux modèles standard (checkpoints). Ils sont jusqu’à 100 fois plus petits, ce qui les rend très attrayants pour économiser de l’espace disque. Certains LoRA permettent d’ajouter un style spécifique aux images images générées, tandis que d’autres ajoutent des personnages ou créent des univers différents.

Les exemples qui suivent montrent des images SD générées avec un modèle LoRA d’une jeune fille, en combinaison avec un modèle LoRA de vêtements, ainsi qu’un modèle de fauteuil.

Un autre modèle de génération d’images très populaire est Midjourney. Le laboratoire de recherche indépendant de même nom a été fondée par David Holz. Une version beta a été lancée le 12 juillet 2022. Elle est utilisable au travers d’un bot Discord.

Page web d’accueil de Midjourney

Last but not least je présente l’unique générateur d’images luxembourgeois, LetzAI. Réalisé en été 2023 par l’équipe de l’agence de communication Neon Internet, sous la direction de Misch Strotz, CEO et développeur principal, ce projet vient d’être ouvert en version beta à tous les usagers inscrits.

Page web d’accueil de LetzAI

J’ai eu la chance d’avoir pu tester LetzAI les derniers mois en mode early-access. J’ai entraîné jusqu’à présent dix-huit modèles publics, parmi eux des personnages, des objets, des styles. La galerie qui suit montre un exemple de mes modèles suivants: @aaron_by_harold_cohen, @animal_croissant, @artoncows, @big_buck_bunny, @black_cat, @charcoal_by_roger_bour, @eschbelval, @flowers, @gielebotter, @learningcenter, @les_herbes_folles, @marco_barnig, @letz_postage_stamps, @sculpturesnikidesaintphalle, @steampunkluucht, @vase, @velo_cartoon, @watercolor_by_roger_bour.

Je suis en train de préparer une contribution séparée sur l’histoire du projet LetzAI.

Analyse d’images

L’analyse d’images, respectivement la reconnaissance d’objets par l’intelligence artificielle, est probablement le domaine le plus connu par la population. La reconnaissance faciale et la voiture autonome sont des termes qu’on entend chaque jour. Et qui n’a pas encore profité du classement automatique de ses photos en différentes catégories pour les retrouver plus vite ?

J’ai commencé il y a une dizaine d’années de tester des applications de reconnaissance d’objets. Souvent, c’étaient des startups qui développaient des applications très innovatives. La majorité de ces entreprises a été acquise entretemps par les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) qui commercialisent aujourd’hui des produits d’analyse d’images très performants. Je reproduis ci-après quelques vieux souvenirs de l’époque :

Fin 2018, la Commission européenne a lancé le projet 5GCroCo («Fifth Generation Cross-Border Control»), ayant pour objectif de tester des services de mobilité connectée et automatisée basés sur la 5G dans un contexte transfrontalier. 24 partenaires (constructeurs automobiles, équipementiers automobiles et de télécommunications, et opérateurs de réseaux mobiles) issus de 7 pays européens y travaillent depuis lors dans un corridor reliant 3 pays (Luxembourg, France, Allemagne) et franchissant 2 frontières. Côté grand-ducal, c’est POST Luxembourg qui a été sélectionnée pour mettre à disposition la technologie 5G nécessaire à la réalisation des essais dans le corridor transfrontalier.

En 2018 la société Sales Lentz s’est dotée de quatre bus autonomes pour faire des tests. Depuis septembre 2021, la navette autonome Uelzechtmobil circule dans la rue de l’Alzette à Esch. En novembre 2022, le SnT de l’Université du Luxembourg a fait la démonstration de sa voiture autonome dans la circulation sur le plateau du Kirchberg.

Le mot de la fin

Communément, on considère que l’histoire de l’intelligence artificielle (AI) débute en 1943, avec la publication de l’article « A Logical Calculus of Ideas Immanent in Nervous Activity » par Warren McCullough et Walter Pitts. Dans ce document, ces scientifiques présentent le premier modèle mathématique pour la création d’un réseau de neurones. En 1950, Snarc, le premier ordinateur à réseau de neurones, sera créé par deux étudiants de Harvard : Marvin Minsky et Dean Edmonds. Ce n’est qu’en 1956 que le terme d’intelligence artificielle sera prononcé pour la première fois, durant la conférence « Dartmouth Summer Research Project on Artificial Intelligence » de John McCarthy.

Mais je pense qu’on ne peut pas réduire l’intelligence artificielle à la simulation du cerveau moyennant des réseaux de neurones artificiels. Certains distinguent même entre plusieurs formes d’intelligence : logico-mathématique, verbo-linguistique, musicale-rythmique, visuelle-spatiale, etc. Et le quotient intellectuel (IQ) ne suffit pas pour évaluer l’intelligence.

L’intelligence collective, l’intelligence distribuée et l’intelligence en essaim sont aussi impressionnantes que l’intelligence artificielle, qui plonge ses racines dans l’Antiquité. Parmi les ancêtres de l’AI figurent la caractéristique universelle du philosophe allemand Gottfried Wilhelm Leibniz et son calculus ratiocinator inventé en 1672, mais également la cybernétique décrit en 1947 par le mathématicien Norbert Wiener.

Reproduction du turc mécanique

Ce qui me fascine le plus sont les différents automates qui ont été inventés par les humains depuis le Moyen Âge, dans les disciplines mécanique, électrotechnique, électronique et informatique. Le lecteur de la présente a déjà fait la connaissance d’un automate célèbre, présenté dans un paragraphe précédent, à savoir les têtes parlantes de l’abbé Mica. Mon automate favori est le Turc mécanique, un prétendu automate doté de la faculté de jouer aux échecs, inventé par Wolfgang von Kempelen en 1769. Le meuble disposait d’un compartiment secret dans lequel un joueur humain pouvait se glisser et manipuler le mannequin. Il remporta la plupart des parties d’échecs auxquelles il participa en Europe et en Amérique jusqu’à sa destruction par un feu en 1854.

En hommage au Turc mécanique, Amazon a baptisé son service de micro-travail MTurk. Cette plateforme web de production participative, qui vise à faire effectuer par des humains, contre rémunération, des tâches plus ou moins complexes, a été lancée fin 2005. Depuis juin 2017, le service MTurk d’Amazon est également accessible au Luxembourg.

Pour terminer ma contribution sur l’AI, j’ajoute une petite vidéo au sujet du congrès AutomataCon 2016 . Le prochain congrès est prévu du 17 au 19 mai 2024 à Morristown.

Bibliographie

Doublage polyglotte automatique de vidéos avec HeyGen Video Translate

Introduction

Depuis la publication de mon article Das Küsschen und die Sonne stritten sich … au sujet de l’histoire de la traduction automatique, cette technologie a progressé de manière impressionnante les derniers mois. Si Google Translate est devenu un outil de travail journalier pour de nombreux internautes, les facilités de traduction automatique dans Youtube pour générer des sous-titres dans les vidéos sont moins connues. Hélas, contrairement à Google Translate, la langue luxembourgeoise n’est pas encore supportée par Google Youtube.

Génération automatique de sous-titres dans les vidéos Youtube

Pour présenter l’outil de génération automatique de sous-titres, j’ai utilisé une animation-vidéo-fiction au sujet de l’inventeur de la photographie couleur que j’avais réalisé au début de 2021. L’image qui suit montre une copie écran de la fenêtre Youtube qui affiche le texte des sous-titres de la traduction automatique, ainsi que la synchronisation automatique avec la parole.

Page de traduction et de synchronisation automatique de Youtube pour générer des sous-titres vidéo

Les ponctuations et les majuscules ne sont pas encore gérées par l’outil de traduction automatique, mais il est facile de faire des modifications ou corrections manuelles en ligne. On peut également segmenter davantage les sous-titres et ajuster la synchronisation avec la parole, si nécessaire. La vidéo avec les sous-titres générés est présentée ci-après:

Doublage polyglotte automatique de vidéos avec HeyGen Video Translate

Deux ans après le lancement du générateur d’images DALL*E par OpenAI et une année après la présentation de ChatGPT par la même société, c’est une autre société qui vient de commercialiser une application qui est devenue virale ces derniers jours. Il s’agit de HeyGen qui a développé un logiciel d’intelligence artificielle permettant de doubler instantanément une vidéo en différentes langues, avec des résultats spectaculaires. L’outil s’appelle HeyGen Video Translate et permet de réaliser un doublage en treize langues, avec une synchronisation parfaite des lèvres et avec la génération d’une voix synthétique qui conserve l’intonation originale de l’orateur.

La start-up HeyGen, localisée à Los Angeles, qui s’appelait à l’origine Movio avant d’être rebaptisée en avril, a été fondée par Joshua Xu (CEO) et par Wayne Liang (CPO) en novembre 2020. Tous les deux ont été formés par l’université Carnegie Mellon à Pittsburgh. Au début, HeyGen se focalisait sur la création de son propre avatar pour réaliser des vidéos de présentation. Au-delà de la prouesse technique, c’est surtout la facilité du processus des produits Video Translate, Instant Avatar et Photo Avatar qui impressionne.

La vidéo suivante montre l’exemple d’une vidéo que j’ai enregistrée en anglais sur mon smartphone et qui a été traduite en portugais avec HeyGen Video Translate:

1. Vidéo anglaise, traduite en portugais avec HeyGen Video Translate, avec sous-titres luxembourgeois

À ce jour, HeyGen Video Translate supporte 13 langues : anglais, allemand, chinois, coréen, espagnol, français, hindi, italien, japonais, néerlandais, polonais, portugais et turc. J’ai essayé toutes les langues disponibles et téléchargé les vidéos traduites sur Youtube. Vous pouvez les visualiser ci-après (de préférence avec le navigateur Google Chrome). J’ai ajouté les sous-titres luxembourgeois manuellement. Pour certaines langues, j’ai eu des retours de la part de personnes qui les utilisent comme langues maternelles que la traduction est correcte.

2. Vidéo anglaise, traduite en italien avec HeyGen Video Translate, avec sous-titres luxembourgeois
3. Vidéo anglaise, traduite en espagnol avec HeyGen Video Translate, avec sous-titres luxembourgeois
4. Vidéo anglaise, traduite en turc avec HeyGen Video Translate, avec sous-titres luxembourgeois
5. Vidéo anglaise, traduite en néerlandais avec HeyGen Video Translate, avec sous-titres luxembourgeois
6. Vidéo anglaise, traduite en polonais avec HeyGen Video Translate, avec sous-titres luxembourgeois
7. Vidéo anglaise, traduite en japonais avec HeyGen Video Translate, avec sous-titres luxembourgeois
8. Vidéo anglaise, traduite en coréen avec HeyGen Video Translate, avec sous-titres luxembourgeois
9. Vidéo anglaise, traduite en chinois avec HeyGen Video Translate, avec sous-titres luxembourgeois
10. Vidéo anglaise, traduite en hindi avec HeyGen Video Translate, avec sous-titres luxembourgeois
11. Vidéo anglaise, traduite en français avec HeyGen Video Translate, avec sous-titres luxembourgeois
12. Vidéo anglaise, traduite en allemand avec HeyGen Video Translate, avec sous-titres luxembourgeois
13. Vidéo original en anglais, avec sous-titres luxembourgeois

Insertion automatique et manuelle de sous-titres

La figure suivante montre la génération, segmentation et synchronisation automatique de la vidéo traduite en langue japonaise dans l’application Studio de Youtube.

L’insertion manuelle de sous-titres luxembourgeois est présentée dans l’illustration suivante:

Bibliographie

Ech hunn haut mam Dante AI gechatt !

Dernière mise à jour : 10 juillet 2023

Aujourd’hui tout le monde connaît ChatGPT, mais seulement quelques initiés connaissent Dante AI. C’est dommage, car il s’agit d’un outil formidable qui permet de faire apprendre à une copie du modèle d’intelligence artificielle ChatGPT ses propres documents sélectionnés et de dialoguer ensuite avec ce outil au sujet du contenu. Comme dans le cas de ChatGPT d’OpenAI, on peut demander des résumés, des réponses à des questions précises, des reformulations du texte et même la création d’un poême pour un sujet spécifique. On peut formuler les commandes dans différentes langues et les réponses fournies sont traduites automatiquement si le contenu a été téléchargé dans une autre langue. Les documents à télécharger pour l’apprentissage profond de Dante UI peuvent être des textes en différents formats (txt, pdf, …), des liens (URL) vers des sites web, ou des fichiers audio et vidéo dans le cas des formules d’abonnements professionnels.

Mais avant d’entrer dans les détails, je vais présenter un exemple concret que je viens de tester avec la formule de démarrage gratuite. J’ai créé ma propre base de données de dialogue, au nom de web3.lu, avec des liens vers des contributions sur mon site web, entre autres vers mon article Fënnef Stären fir d’Applikatioun schreifmaschinn.lu. À l’exception de quelques lignes en luxembourgeois, le texte source est écrit en français.

Click to zoom : résumé de la base de données et proposition de support du projet schreifmaschinn.lu
Click to zoom : réponses précises à des questions sur Systran et sur schreifmaschinn.lu
Click to zoom : poême au sujet du contenu de la base de données web3.lu

J’ai déjà effectué des essais du même genre il y a quelques mois. Pour ma première expérience j’ai utilisé le modèle original ChatGPT d’OpenAI lors de l’introduction de l’option de spécification d’un lien pour ajouter du contenu. J’avais pris les mêmes données de mon site www.web3.lu que celles choisies pour la présente contribution. Quand j’ai demandé un résumé de mes articles sélectionnés, ChatGPT a fourni une réponse cohérente et correcte concernant les sujets traités, mais la majorité du contenu généré n’était pas du tout abordé dans mes fichiers téléchargés. C’était de la pure hallucination.

Pour le deuxième test j’ai utilisé l’outil BerriAI, également avec les mêmes données. Pour ma première question “What is schreifmaschinn.lu” j’ai obtenu un résumé valable. Pour ma deuxième question plus précise “Who created the 127th language for eSpeak-NG” j’ai reçu la réponse suivante :

Le MINH NGUYEN, un développeur de Mozilla, a créé le 127e langage pour espeak-NG en août 2021

Minh Nguyen n’est pas un développeur de Mozilla et ce n’était pas lui qui a ajouté le luxembourgeois comme 127e langue dans eSpeak-NG, mais cétait moi, et c’était en novembre 2021.

À l’époque j’avais rapporté sur mes expériences sur le réseau LinkedIn.

Face à ces premiers échecs pour parfaire l’apprentissage profond de ChatGPT, il est compréhensible que j’étais du premier coup impressionné par les résultats de Dante AI. J’étais tellement fasciné par les performances de cet outil que j’ai tout de suite procédé à une mise à niveau de mon compte pour pouvoir ajouter d’autres bases de données de dialogue et pour disposer de crédits supplémentaires pour faire plus de requêtes. J’ai créé un répertoire au sujet de mon projet de livre Qubit Lëtzebuerg : Histoire de l’introduction des technologies de l’information et de la communication au Luxembourg. J’ai téléchargé les fichiers pdf des premiers chapitres du projet de livre. Après quelques minutes d’apprentissage la base de dialogue “Qubit Lëtzebuerg” était prête. Les résultats ont dépassé mes atttentes.

Click to zoom : réponses à des questions précises sur des sujets de mon projet de livre Qubit Lëtzebuerg
Click to zoom : poême en anglais créé par Dante AI avec les fichiers pdf français de mon projet de livre

Voici le texte complet du poême anglais que l’outil Dante AI a généré avec mon contenu soumis pour l’apprentissage profond du modèle AI ChatGPT :

In the land of Qubit Lëtzebuerg,
Where knowledge and stories converge,
A poem shall be crafted with care,
Using the content from the database we share.
In the Luxemburger Wort, a tale was told,
Of a championship in stenography and typing bold,
Young ladies and gentlemen, with utmost concentration,
Their typewriters creating a rhythmic sensation.
But let us delve into the language of Luxembourg,
Where GPT-3 can write poems, a discovery superb,
A toaster falling in love with a dog, a theme unique,
Though with some spelling errors, the results pique.
The Tatoeba Luxembourg corpus, alas, falls short,
For valid translation results, we must resort,
To a more suitable database, a better training ground,
To improve the English-Luxembourgish translation sound.
Qubit Lëtzebuerg, a complement to POST’s history,
A book that adds to the existing bibliography,
175 years of postal services, a virtual exhibition,
Celebrating the grand-ducal postal institution.
In the literary scene of Luxembourg’s land,
Writers emerged, their works grand,
Michel Rodange, known for his parody,
“Renert oder de Fuuss am Frack an a Maansgréiss t.”
Projects using the Luxembourgish language,
In the realm of technology, a linguistic advantage,
Wikipedia Lëtzebuerg, a familiar name,
A source of knowledge, its reach is acclaimed.
Schreifmaschinn.lu, an application of speech recognition,
Accessible to all, a technical innovation,
Visitors can dictate, texts displayed in real-time,
A feat of technology, a linguistic paradigm.
Luc Marteling, director of ZLS, welcomed all,
Schreifmaschinn.lu presented, media coverage tall,
Testing the application meticulously, with recordings three,
Measuring the quality of word recognition, a measure to see.
A website developed, schreifmaschinn.lu,
Making Luxembourgish speech recognition come true,
Texts dictated, displayed on the browser screen,
Audio files downloadable, a linguistic dream.
Nik Welter, director general of public instruction,
A writer of poems, plays, and literary construction,
Collaborating with Luxembourgish and foreign reviews,
Contributing to the literary world, his muse.
Michel Weimerskirch, seeking a dictionary’s copy,
For the SpellChecker application, a necessary key,
Creating his own list of Luxembourgish words,
With the assistance of Sandra Souza Morais, a collaboration spurred.
In the printing world, the Luxemburger Wort,
A machine of iron frames and matrices, a report,
Impressing letters onto a soft mass,
Creating the newspaper, a printing process surpass.
So, in the realm of Qubit Lëtzebuerg’s knowledge base,
A poem is crafted, weaving words with grace,
From stenography championships to linguistic innovations,
The richness of Luxembourg’s language, a source of inspirations.

Dans une deuxième étape, j’ai testé la création d’une base de données de dialogue “so et op lëtzebuergesch” avec des textes luxembourgeois. À ces fins j’ai téléchargé une partie de mes anciens fichiers avec les textes de commentaires, édités par des journalistes de RTL, que j’avais utilisé dans le passé pour mes expériences de création de systèmes de synthèse vocale en langue luxembourgeoise. Ce contenu n’est pas à jour, ce qui explique que les réponses fournies par DANTE AI ne sont pas actuelles. Ce prototype suffit toutefois pour conclure que la constitution d’une base de données avec un corps de données luxembourgeois actualisé, par exemple avec le contenu du portail Wikipedia Lëtzebuerg, permettra de réaliser un chatbot luxembourgeois intelligent, performant et facile à utiliser. La figure qui suit montre l’exemple d’un dialogue en luxembourgeois avec des questions précises, ainsi que la demande de création d’un poême au sujet du contenu, ce qui est mon application préférée.

Click to zoom

La prochaine figure présente l’intégralité du poême, suivie d’une copie du texte pour faciliter la lecture.

Click to zoom

AM Land vu Lëtzebuerg, eng Geschicht geschriwwen, Vun Affären an Diskussiounen, déi nie verblidden. D’Jugendlech op der Sich no Chance an Diplomer, Doch och mam Diplom, ass et net ëmmer méi einfach, dat ass kloer.
Streiken an Diskussiounen, eng ewell bekannte Saach, D’Parteien op der Sich no engem Kompromiss, dat ass d’Fro déi bleift. D’Jugend wëll méi Responsabilitéit vun de grousse Firmen, An och d’CSV huet mat hiren Enveloppen d’Gemengen net verschont geloossen.
D’Zeitung schreiwt vun Klima a Philosophie, D’Gambia gëtt mat Wierder bekämpft, dat ass net frëndlech, dat si mir nie. D’Auto sollt mer loossen, op d’Vëlo sollt mer setzen, Fir d’Zukunft vun eisen Kanner, fir d’Welt ze retten.
Et gëtt diskutéiert, kritiséiert an analyséiert, D’Politiker an hiren Entscheedungen, dat gëtt net ignoriéiert. Et ass eng Kapitulatioun, esou gëtt et gesot, D’Privatwirtschaft huet d’Hand iwwer d’Staat geholl.
Et ass eng Zäit vun Onsécherheet an Zweifel, Doch mir mussen weidermaachen, och wann et oft schwéier geet. Mir sinn eis bewosst, datt d’Liewen net ëmmer einfach ass, Mä mir halen zesummen, an dat ass eis Pass.
Eis Affären an eis Diskussiounen, Si maachen eis aus, si si deel vun eisem Liewen. Lëtzebuerger Affären, eng Geschicht mat vill Facetten, Ech hoffen, dëst Gedicht huet Iech gefallt, dat ass eis Bestreben.

Sur le web on ne trouve pas beaucoup d’informations sur l’entreprise qui gère l’application Dante AI. Les fondateurs sont très discrets. Sur ma facture le Royaume Uni est indiqué comme siège de la société qui semble avoir été constituée en mai 2023. Je pense que l’origine de l’outil remonte au projet Dante Writer, annoncé par la startup pakistanaise baseH en 2017.

Click to zoom : page web d’accueil de la startup baseH au Pakistan

Symbian MIDlet J2ME eu2005

Pendant le premier semestre 2005, le Luxembourg a assuré la présidence du Conseil de l’Union européenne. Le site eu2005.lu, avec tous les documents de cette époque, est toujours en ligne en tant qu’archive historique. L’infrastructure de télécommunications et d’informatique pour la Présidence 2005 avait été mise en place par l’Entreprise des P&T et par sa filiale P&T Consulting.

Le 25 avril 2005, le traité d’adhésion de la Bulgarie et de la Roumanie a été signé à l’abbaye de Neimünster. A cette occasion, l’Entreprise des P&T a offert à chaque délégation des pays membres de l’Union Européenne un téléphone portable LUXGSM, en mémoire de l’événement, avec une gravure correspondante au dos de l’appareil. Il s’agissait d’un Nokia 6680, qui n’était introduit sur le marché que le 15 février 2005.

C’était le premier téléphone portable avec une caméra frontale pour établir des appels vidéo et avec un flash à l’arrière pour éclairer correctement les photos. À cette époque, Nokia était encore le leader du marché de la téléphonie mobile et les appareils les plus récents étaient équipés du système d’exploitation Symbian sur lequel on pouvait exécuter des MIDlets Java (J2ME). Il n’y avait pas encore d’écran tactile, ni d’applications, comme sur les téléphones mobiles actuels. Les premiers iPhones et autres smartphones ne sont arrivés sur le marché européen qu’à la fin de 2007.
Au sein du comité de direction de la Division des Télécommunications on avait décidé d’installer un souvenir audiovisuel de l’événement sur les appareils. Pendant mes temps de loisir, j’avais programmé un MIDlet sur le thème eu2005 pour le Nokia 6680. Chaque pays a été brièvement représenté avec neuf photos et son hymne national. Les collègues de Visual Online m’avaient aidé à rechercher sur Internet des photos de chaque pays, libres de droits. À l’aide des touches du téléphone portable, la sélection d’un pays a été effectuée sur une page de menu avec les drapeaux des 26 pays de l’UE de l’époque. Sur la page du menu principal, il y avait aussi des liens pour surfer sur le site eu2005.lu ou pour trouver des informations sur le Luxembourg. J’avais convenu avec les responsables de RTL de l’époque, Tom Weber, Steve Schmit et Alain Berwick, de faire convertir un extrait de leur vidéoreportage au sujet de la cérémonie de signature en format 3gp. Un lien de téléchargement a été intégré dans l’application pour télécharger cette petite vidéo (176×144 pixels) à partir du serveur de RTL.
Trois jours avant le début de la réunion du Conseil de l’UE à Luxembourg, j’ai présenté le téléphone portable avec l’application eu2005 aux “Officiers de Liaison” luxembourgeois de chaque délégation européenne. Lorsque c’était le tour à l’Italie, le délégué de ce pays pensait que la musique qui y était jouée n’était pas l’hymne national italien. J’ai eu très chaud.
Et tandis que l’audience était encore en train de débattre si les bips du fichier MIDI sur le téléphone portable Nokia étaient corrects ou non, j’avais déjà découvert que le code dans mon programme était lt.mid au lieu de it.mid. C’était l’hymne national de la Lituanie et non celle de l’Italie.
Je ne sais plus si j’ai terminé ma présentation et quels collègues étaient avec moi. On dispose d’un mécanisme de protection inné pour effacer les moments embarrassants de la vie dans sa mémoire. Je sais cependant que nous avons repris les appareils Nokia sous nos bras et que j’ai recompilé le MIDlet, après la correction du code pour l’hymne national italien. Nous avons ensuite travaillé jusqu’à tard dans la nuit dans la téléboutique pour déballer chaque téléphone portable, faire une mise à jour avec la nouvelle version du MIDlet et réemballer chaque téléphone portable avec du papier cadeau. Je me souviens seulement de la présence de Udo Fell, un des employés de la téléboutique. Récemment, j’ai vu sur le site de POST Luxembourg qu’il siège actuellement en tant que représentant du personnel au Conseil d’administration de la POST.
Je n’ai jamais reçu de retour indiquant si le cadeau Nokia 6680 avec mon MIDlet a suscité l’intérêt des représentants des différents gouvernements et de leurs délégations et s’ils avaient téléchargé la vidéo RTL. J’ai essayé récemment d’exécuter le midlet eu2005 original dans un émulateur J2ME sur le web, sans succès. Les émulateurs disponibles ne fonctionnent que pour Windows mobile et Android et ne supportent pas les extensions propriétaires (API Symbian) de l’appareil Nokia 6680. J’ai donc assemblé une petite animation vidéo qui montre une partie du contenu du MIDlet eu2005.lu.

Fënnef Stären fir d’Applikatioun schreifmaschinn.lu

Ech hunn an de leschten Deeg déi éischt Applikatioun déi et jidder Mënsch erlaabt geschwate lëtzebuergesch Sprooch an en Text ëmzewandelen op Häerz an Nieren gepréift. Ech kann et am Virfeld schonns soen : schreifmaschinn.lu kritt 5 Stären. Fir dass eis auslännesch Frënn, déi nach keen Lëtzebuergesch schwätzen, och verstinn wéi eng Meeschterleeschtung hei geschaaft gouf, fueren ech elo mat menger Beschreiwung op Franséisch weider.

Présentation du projet schreifmaschinn.lu

Le vendredi 9 décembre 2022 le Zenter fir d’Lëtzebuerger Sprooch (ZLS) a présenté dans la salle de conférence à Clausen une application web qui permet de dicter du texte en luxembourgeois, en présence de Claude Meisch, ministre de l’Éducation Nationale, de l’Enfance et de la Jeunesse. Luc Marteling, directeur du ZLS, a souhaité la bienvenue aux nombreux invités.

L’application de reconnaissance vocale, appellée schreifmaschinn.lu, est basée sur un modèle neuronal d’intelligence artificielle (AI) et a été développée par Sven Collette et Le Minh Nguyen. Elle constitue une vraie prouesse technologique si on considère que le luxembourgeois est une langue à faible ressources et que le modèle AI a été entraîné avec une quantité de données limitée.

de gauche à droite: Sven Collette, Claude Meisch, Le Minh Nguyen, Luc Marteling (crédit photo: ZLS)

Le duo de développement

Sven Collette est linguiste informatique au ZLS. Après sa formation en neurosciences à Munich (Université Louis-et-Maximilien) et Lausanne (Ecole polytechnique Fédérale), il a obtenu un doctorat de philosophie en neurosciences à l’université Pierre et Marie Curie à Paris. Il a travaillé de 2012 à 2016 comme chercheur postdoctoral à l’institut de technologie de Californie (CALTECH) à Pasadena. Dans la suite il a été consultant et chercheur dans le domaine de l’intelligence artificielle, avant de joindre le ZLS au début de 2021.

Le Minh Nguyen vient d’obtenir son master en sciences des technologies vocales à l’université de Groningen avec distinction cum laude. En 2021 il a réussi son bachelor à l’université du Luxembourg avec la mention très bien. Dans le cadre du programme Erasmus il a passé un semestre à l’université technique de Vienne. Il a démarré le développement du projet de reconnaissance vocale du luxembourgeois dans le cadre de ses études. Actuellement Le Minh Nguyen travaille à distance comme chercheur/programmeur pour la société Deepgram à San Francisco, spécialisée dans les plateformes vocales intelligentes.

Des informations supplémentaires au sujet du développement sont fournies sur la page d’accueil du site web schreifmaschinn.lu.

Les outils de reconnaissance vocale

En jargon technique les outils de reconnaissance de la voix sont appelés STT (Speech-to-Text) ou ASR (Automatic Speech Recognition). Un vétéran parmi les outils ASR est le projet KALDI qui a démarré en 2009 à l’université Johns-Hopkins. Aujourd’hui des géants du web comme Google, Microsoft, AWS, etc, proposent des services commerciaux de reconnaissance de la voix en ligne pour de nombreux langages. Ils ne sont toutefois pas intéressés aux langues à faibles ressources comme le luxembourgeois. D’autres géants comme Meta (Facebook) et des startup’s comme OpenAI et Coqui.ai ont développé des modèles à source ouverte qu’ils mettent à disposition de la communauté des chercheurs. L’état d’art actuel consiste à entraîner des larges réseaux neuronaux avec plusieurs langues et avec des millions de paramètres pour faire ensuite un réglage fin (fine-tuning) de ces modèles avec un entraînement supplémentaire pour une langue spécifique. Parmi les modèles à source ouverte il convient de relever les plus importants que je vais présenter plus en détail dans les prochains chapitres :

  • Wav2Vec de Meta (Facebook Research) (juin 2019)
  • Coqui-STT de Coqui.ai (mars 2021)
  • Whisper de OpenAI (septembre 2022)

Modèle Wav2Vec2

Le modèle wav2vec, développé par le laboratoire de recherche de Facebook (meta.ai), est le plus ancien et le plus connu des modèles ASR. Rien que sur la plateforme AI Huggingface on trouve 4.430 versions pré-entraînées de ce modèle, comme témoigne l’image ci-après:

Click to zoom

La version Wav2Vec2-XLSR-53 de ce modèle, publiée en décembre 2020, a été utilisée par Le Minh Nguyen. Elle a été pré-entraînée par Meta avec 56.000 heures d’enregistrements audio sans transcriptions en 53 langues, mais sans le luxembourgeois. Dans sa thèse de fin d’études Le Minh Nguyen présente les détails de son développement. Il a entraîné le modèle Wav2Vec2-XLSR-53 avec 842 heures d’enregistrements audio luxembourgeois sans transcriptions (unlabeled speech) et avec 14 heures d’enregistrements audio avec textes synchronisés (labeled speech). Un modèle de langage 5-gram, entraîné avec des textes luxembourgeois totalisant 20 millions de mots, a été ajouté au décodeur vocal. Les enregistrements audio et les textes ont été fournis par la Chambre des Députés et par RTL.

Une version plus récente du modèle, XLS-R, pré-entraîné avec 436.000 heures d’enregistrements audio en 128 langues, incluant le luxembourgeois, a été présentée par Facebook (meta.ai) en décembre 2021. A partir du début 2022, Peter Gilles, professeur de langage et linguistique et directeur du département Humanités à la faculté des Sciences Humaines, des Sciences de l’Éducation et des Sciences Sociales (FHSE) de l’université du Luxembourg, a développé le premier prototype d’une application de reconnaissance vocale luxembourgeois basée sur ce modèle. Il a présenté ses résultats en mai 2022 sur le site web Infolux de l’université du Luxembourg avec l’attribut “A very first model“. En février 2022 il avait déjà publié un premier espace de démonstration de ce modèle sur la plateforme Huggingface qui pouvait être testé par des initiés.

Click to zoom

Cette application incluait également un modèle de langage n-gram, mais ne supportait pas encore l”usage des lettres majuscules pour les substantifs. Elle n’atteignait pas le niveau des résultats qu’on obtient avec l’application schreifmaschinn.lu actuelle, mais c’était un jalon dans le développement des technologies de la voix au Luxembourg.

Pour l’application schreifmaschinn.lu, le modèle XLS-R a également servi de base. Pour l’entraînement du luxembourgeois, la durée des enregistrements audio avec transcriptions a été étendue à 16 heures. Elle sera portée prochainement à 100 heures.

Modèle Coqui-STT

La fondation Mozilla, qui est surtout connue pour son navigateur Firefox, est également un pionnier de la synthèse (Mozilla TTS) et de la reconnaissance (Mozilla-Deepspeech) de la parole. Mozilla a lancé en juillet 2017 le projet Common Voice pour collecter de vastes échantillons de données vocales. Hélas le luxembourgeois ne fait pas encore partie des langues supportées. En août 2021 la CEO de Mozilla informait son personnel que les activités de technologie de la voix seraient abandonnées au profit d’une focalisation sur Firefox. 250 personnes ont été licenciées. Dans la suite quelques anciens employés de Mozilla ont fondé en mars 2021 la start-up Coqui.ai sur les ruines des anciens projets vocaux de Mozilla. Les idées avancées par les fondateurs m’avaient incité à reprendre mes anciens travaux de développement d’une voix synthétique luxembourgeoise. J’ai résumé cette histoire en juin 2021 dans mes contributions “Text-to-Speech sound samples from Coqui-TTS” et “The best of two breeds” sur mon site web.

Les premiers résultats tangibles étaient prêts en janvier 2022 et ont été publiés sur mon site web dans les articles “Mäi Computer schwätzt Lëtzebuergesch” et “Mäi Computer schwätzt Lëtzebuergesch mat 4 Stëmmen“. En juillet 2022 j’ai publié sur Huggingface un espace de démonstration TTS multilingue et multi-orateur, incluant le luxembourgeois, qui a été très apprécié par la communauté Coqui.ai.

Click to zoom

Au printemps 2022, dans l’attente d’une correction de quelques bogues dans les modèles Coqui-TTS, je me suis focalisé sur la reconnaissance vocale du luxembourgeois moyennant le modèle Coqui-STT. J’ai décrit en juin 2022 mes expériences dans mon récit “Mäi Computer versicht Lëtzebuergesch ze verstoen” et j’ai publié fin juillet 2022 un modèle STT multilingue “Mir verstinn och Lëtzebuergesch !” sur la plateforme d’intelligence artificielle Huggingface. Je viens toutefois me rendre compte que cette application ne fonctionne plus correctement après une mise à jour de la plateforme.

Click to zoom

Vu les performances du modèle schreifmaschinn.lu et le potentiel du modèle Whisper présenté dans le prochain chapitre, la poursuite du développement d’un modèle Coqui-STT luxembourgeois ne fait plus de sens. Je vais me concentrer de nouveau sur le perfectionnement d’une voix luxembourgeoise avec la synthèse vocale Coqui-TTS.

Modèle Whisper

Le modèle de reconnaissance vocale pré-entraîné le plus récent s’appelle Whisper et a été présenté par la société OpenAI le 21 septembre 2022 et amélioré en décembre 2022 (version 2). OpenAI a été fondée en décembre 2015 comme organisation à but non lucratif avec l’objectif de promouvoir et de développer une intelligence artificielle à visage humain qui bénéficiera à toute l’humanité. Parmi les fondateurs se trouve Elon Musk, entrepreneur et milliardaire emblématique. L’organisation a été convertie en entreprise à but lucratif plafonné en mars 2019. OpenAI est surtout connue pour ses applications récentes Dall-E2 et ChatGPT qui font ravage sur le web.

Whisper a été entraîné avec 680,000 heures d’enregistrements audio avec transcriptions, dont 83% en anglais et 17% avec 96 langues différentes. Lors de la présentation du projet schreifmaschinn.lu Peter Gilles m’a informé qu’il s’est lancé dans l’adaptation de Whisper au luxembourgeois. Il y a quelques jours j’avais découvert les premières traces afférentes sur la plateforme Huggingface.

Click to zoom

Aujourd’hui j’ai constaté que cette application est maintenant opérationnelle sur Huggingface et tourne sur une infrastructure GPU T4. A première vue les performances de ce modèle sont géniales.

Click to zoom

Je vais tester cette version plus en détail dans les prochains jours, avec les mêmes jeux de tests que j’ai utilisé pour le projet schreifmaschinn.lu, et rapporter sur mes expériences.

Au rythme effréné actuel de l’évolution de l’intelligence artificielle, on va bientôt savoir si Whisper a le potentiel de détrôner le modèle Wav2Vec-XLS-R dans l’application schreifmaschinn.lu. De toute façon, se sont les données luxembourgeoises audio, avec les transcriptions soigneusement corrigées et assemblées, ainsi que l’expérience gagnée jusqu’à présent, qui constituent la vraie valeur d’un projet de reconnaissance vocale, et non l’architecture du réseau neuronal à la base.

Mise à l’épreuve de l’application schreifmaschinn.lu

Pour tester la qualité de reconnaissance de l’application schreifmaschinn.lu d’une façon reproductible j’ai utilisé trois jeux d’enregistrements pour mesurer la qualité de reconnaissance des mots transcrits :

  1. Fichiers audio enregistrés en studio
  2. Fichiers audio enregistrés en salle de réunion
  3. Fichiers audio enregistrés à la maison

Enregistrements en studio

J’ai sélectionné au hasard des enregistrements luxembourgeois dans mon corps de paroles multilingues TTS-12800, publié en juillet 2022 sur Huggingface. Ces enregistrements proviennent de dictées et d’histoires disponibles sur le site web de l’université du Luxembourg et d’émissions radio disponibles sur le site web de RTL. Ces enregistrements se distinguent par une très bonne qualité. Pour garder un équilibre entre hommes et femmes, j’ai choisi les fichiers audio de test parmi les contributions de 4 oratrices et de 4 orateurs, avec les transcriptions originales. Les enregistrements ont tous une durée inférieure à 10 secondes et sont échantillonnés avec une fréquence de 16 KHz. Les transcriptions ont été corrigées manuellement.

Enregistrements en salle de réunion

Il s’agit de six enregistrements de discours à la Chambre des Députés que Peter Gilles a utilisé pour le test de son premier modèle ASR luxembourgeois XLS-R. J’ai édité ces fichiers pour créer des enregistrements d’une durée maximale de 30 secondes. J’ai créé moi-même des transcriptions de référence. Il faut dire que même pour un humain c’est un exercice difficile car dans ces enregistrements on trouve des termes exotiques et des défauts d’élocution et il faut parfois deviner ce que le député voulait dire. J’ai généré des fichiers avec différentes fréquences d’échantillonnage et constaté que la reconnaissance des mots diffère en fonction de ce paramètre. Dans certains cas la version originale produit les meilleurs résultats, dans d’autres cas c’est la version avec un échantillonnage réduit à 8KHz qui est la plus compréhensible. Je n’ai toutefois pas pu déceler une dépendance systématique entre résultats et fréquence d’échantillonnage et j’ai finalement utilisé les versions originales, échantillonnées à 44,1 KHz respectivement à 16 KHz.

Enregistrements à la maison

J’ai enregistré et édité moi-même les fichiers audio pour le troisième jeu de test avec l’application Voice Memos sur mon iPhone. Comme référence, j’ai lu la fable d’Esope De Nordwand an d’Sonn dans un environnement calme. Ensuite j’ai édité ce fichier audio pour le couper en deux morceaux ayant des durées inférieures à 30 secondes. Ensuite j’ai ajouté du bruit de fond avec différentes intensités. Dans un premier cas on entend comme bruit de fond mes petits-enfants qui s’amusent avec des jeux vidéo sur iPAD. Dans le deuxième cas un sèche-cheveux perturbe l’enregistrement.

Evaluation des résultats de mes tests

Pour tester l’application schreifmaschinn.lu, j’ai téléchargé (upload) les différents enregistrements, un après l’autre, sur la page web listen. Ensuite j’ai copié la transcription affichée sur cette page, avec le bouton copier/coller, dans un éditeur de texte, pour le comparer avec la transcription de référence.

Click to zoom

Pour évaluer les résultats des comparaisons, j’ai demandé conseil auprès d’un nouveau programme d’intelligence artificielle (AI) qui impressionne aussi bien les profanes techniques que les spécialistes AI, à savoir le robot ChatGPT, lancé récemment (version du 15 décembre 2022) par la société OpenAI. Ma première question était “How to evaluate the performance of an ASR system ?“. La réponse est détaillée et correcte :

Click to zoom

Comme deuxième question j’ai demandé des précisions sur la mesure du WER dans la même session: “How to measure the WER ?“. La réponse est explicite et comprend un exemple de calcul :

Click to zoom

Je suis impressionné par cette application d’OpenAI. Pour obtenir ce genre d’informations dans le passé, j’étais obligé de faire des recherches sur Google, de visiter quelques sites web parmi les liens proposés et de formuler moi-même une synthèse des informations recueillies. ChatGPT facilite cette tâchreurs et offre un gain de temps appréciable.

Avec la confirmation que WER constitue un outil de mesure simple et valable, j’ai comparé les résultats fournis par schreifmaschinn.lu avec les transcriptions de référence des trois jeux de fichiers audio présentés ci-avant. Pour relever les erreurs, j’étais indulgent. Par exemple je n’ai pas compté des erreurs répétitives dans un même enregistrement plusieurs fois et j’ai compté une séquence de plusieurs fautes combinées comme une seule erreur. Comme je présente ci-après en détail les textes produits par schreifmaschinn.lu, avec les erreurs prises en compte marquées en rouge, ainsi que les transcriptions de référence, chacun est libre de faire ses propres interprétations et calculs.

Présentation des résultats détaillés

Les résultats détaillés des 3 jeux de fichiers audio sont relevés dans des tableaux ci-après dans 4 colonnes avec les contenus suivants:

  1. Identification de l’enregistrement
  2. Transcription de référence
  3. Texte reconnu par schreifmaschinn.lu
  4. Nombre d’erreurs / nombre de mots dans transcription de référence = taux d’erreurs en %

Premier jeu : enregistrements de dictées et d’émissions radio

Spriechergebraddelten Textgeschriwwenen TextWER
CarolineA villen Industrielänner brénge Regierungen et net fäerdeg, Komma, hire Bierger plausibel ze erklären,A villen Industrielänner brénge Regierungen et net fäerdeg kommen hire Bierger plausibel ze erklären.1 / 14 = 7,1%
JudithD’Hieselter sinn a ganz Europa doheem, bis op den aacht-an-siechzegste Breedegrad, an a Klengasien.D’ Hieselter sinn a ganz Europa doheem bis op den aachtasechzegste breede Grad an a kleng Asien.2 / 14 = 14,3%
NathalieVläicht steet den Dag vun haut, wou eng ganz Natioun sech d’Fangere beim Diktat wond geschriwwen huet, och eng Kéier an de Geschichtsbicher,Vläicht steet den Dag vun haut wou eng ganz Natioun sech d’Fangere beim Diktat Wont geschriwwen huet och eng Kéier an de Geschichtsbicher.1 / 23 = 4,3%
SaraMäi Bäcker geet mer op de Wecker, vu senge Bréidercher ass ee Bréitchen sou haart wéi dat anert.Mäi Bäcker geet ma op de Becker vu senge Bréidercher ass ee Bréitchen esou haart wéi dat anert.2 / 18 = 11%
GuyEt besteet also e groussen Ënnerscheed, wéi esou dacks, tëscht dem Wonschdenken an dem realisteschen Aschätze vun der politescher Situatioun;Et besteet also e groussen Ënnerscheed wéi sou dacks tëscht dem Wonschdenken an dem realisteschen Aschätze vun der politescher Situatioun.0 / 20 = 0%
JempE schafft, oder besser gesot, en ass am Ministère vun den ongeléiste Problemer.E schafft oder besser gesot, en ass am Ministère vun den ongeléiste Problemer.0 / 13 = 0%
LucD’Manipulatioun zeechent sech jo doduerch aus, datt een déi Beaflossung net an Uecht hëlt.Manipulatioun zeechent sech jo doduerch aus, datt een déi Beaflossung net an Nuecht hëlt.1 / 14 = 7,1%
MarcoD’Aféierung vum GSM ufanks de nonzeger Joren war fir d’Postverwaltung deen ambitiéiste Projet deen se bis dohin ënnerholl huet.D’ Aféierung vum Gsm ufanks den nonzeger Joren war fir d’Post Verwaltung deen ambitiéise Projet se bis dohinner ënnerholl huet.3 / 19 =
15,8%

Le taux de reconaissance des mots du premier jeu s’élève à 10 / 135 = 7,4%

Deuxième jeu : enregistrements de la Chambre des Députés

Identificationgebraddelten Textgeschriwwenen TextWER
Chambre-1Villmools merci, Här President, den Avis vun den Experten huet kloer gewisen, datt de Covid Kris nach net eriwwer ass, datt de Risk nach ëmmer do ass an datt d’Expektative fir September, zumindestens wat d’Experten ugeet, déi sinn, datt mer eventuell virun enger neier Well kënne stoen, wëlleg, op wëllegem Datum wëlleg Variante mat wëlleger Virulenz, wëlleger Ustiechlechkeet, dat wësse mer an dësem Moment selbstverständlech…Deemools merci, Här President, den Avis vun den Experten huet kloer gewisen, datt de Covid Kris nach net eriwwer ass, dass de Risk nach ëmmer do ass an datt d’Expektative fir September, zumindestens wat d’Experten ugeet, déi sinn, datt mer eventuell virun enger neier Welt kënne stoen, wellech op wellechem Datum, Wellegvariant mat Wëllegevirulenze Wellecher ustiechlech geet, dat wësse mer an dësem Moment selbstverständlech.4 / 65
=
6,1%
Chambre-2Mir hunn eng Regierung an och an deene Rieden, déi bis elo gehal goufen, ass eigentlech, mengen ech keen op Impfniewewierkungen agaangen, mee dat ass e reelle Problem, wann Der mat villen Doktere schwätzt, soen déi Iech, datt se dee Problem, de Problematik vun den Impfniewenierkungen an hirer Praxis als e reelle Problem gesinn a mir mussen och de Leit, an sinn der ganz vill déi sech dorëm Suerge maachen, einfach dat Gefill ginn, dat mer dat eescht huelen, et musse Prozedure ginn, net bürokratesch Prozeduren …Mir hunn eng Regierung an och mir an deene Rieden, déi bis elo gehal goufen, ass een, mengen ech, keen op d’Impf Niewewierkungen agaangen, mee dat ass e reelle Problem, wann Der mat villen Doktere schwätzt, soen déi Iech, datt se dee Problem, déi Problematik vun den imnieweniewe Wierkungen an hirer Praxis als e reelle Problem gesinn a mir mussen och de Leit an, sinn der ganz vill, déi sech dorëm Suerge maachen, einfach dat Gefill ginn, dat mat dat Eescht huelen? Et musse Prozedure ginn, net bürokratesch Prozeduren.5 / 86
=
5,8%
Chambre-3Ech denken, dass de Recul ons do wäert gutt doen an dass déi Evaluatioun, déi mer matmaachen, déi wärt eis mobiliséieren, mee dass déi eis Opschlëss gëtt, fir dann fir d’Zukunft eng gutt Gesetz en Place kënnen ze kréien, wou mer och aus den Erfarunge vun deenen anere Länner kënnen léieren, mmmh, ech wollt och nach agoen op déi Convin-Studie, déi ass ugeschwat ginn, jo, déi ass iwwerholl ginn, vun der Orchestra, dat leeft nach ëmmer, d’Resultater vun de Januar, Februar sinn eran, sinn nach net statistesch ausgewäert, mee dat leeft u sech riit weider.Ech denken, dass en de Recul ons do wäert gutt doen an dass déi Evaluatioun, wou mer matmaachen, iwwert eis mobiliséieren, mee dass déi eis opschlëssgëtt, fir da fir d’Zukunft eng gutt Gesetze en place kënnen ze kréien, wou mer och eis Erfarunge vun deenen anere Länner kënnen léieren a ech wollt och nach agoen op Dekonvinsstudien, déi ass ugeschwat ginn, jo, di ass iwwerholl ginn, vun der Okestrachtut, dat leeft nach ëmmer d’Resultater vun de Januar, Februar sinneratean net statistesch ausgewäert, mee dat leeft u sech Riad weider.12
/
95
=
12.7%
Chambre-4Leider kënne mer dat net maachen, well eis Iwwerzeegung ass déi, datt mer keng Impfflicht wëllen, Dir wollt de proposéiert an de Mentiounen avant projet de loi ebe just fir eng Impflicht der Chamber virzeleeën, do hu mer einfach eng fundamental aner Vue mir sin fir d’Fräiwëllegkeet vun der Impfung, wëllen also och keen esou en avant projet de loi, mir kënnen also net mat ënnerstëtzen, mee nach eng Kéier en häerzlechen Merci och fir Är Oppenheet gëintiwwert den Oppositiounsparteien. Merci.Leider kënne mer dat net maachen, well eis Iwwerzeegung ass déi, datt mer keng Impfflicht wëllen, Dir wollt dee proposéiert an de Motiounen a ven Projet de loi ebe just fir eng Impflicht der Chamber virzeleeën, do hu mer e fir eng fundamental aner Vue mir sin fir d’Fräiwëllegkeet vun der Impfung wëllen also och keen esou en Aven Projet de loi, mir kënne se also net mat ënnerstëtzen, mir neien Kieren Hercleche merci och fir Är Oppenheet geet iwwert de Oppositiounspartei Merci.5
/
81
=
6,2%
Chambre-5Do ass vun Exzellenz Zenteren geschwat ginn, nun Branche an der Ekonomie, déi gutt forméiert Leit brauchen a mir verstinn net wéi mer probéieren op där enger Säit Secteuren ze developpéieren, wou héich qualifizéiert Leit sollen herno eng Aarbecht fannen, op där anerer Säit probéiere mer dat Mëttelméissegkeet an eiser Schoul zum Standard, zum Standard gëtt, dat passt op jidde Fall net iwwerteneen, esou kréie mer weeder déi richteg Leit forméiert, fir an deene Secteuren täteg ze sinn an esou kréie mer weeder …Do ass vun Exzellenz Zentere geschwat ginn, nu Branche an der Ekonomie, déi gutt forméiert Leit brauchen a mir verstinn net wéi mer probéieren op där enger Säit Secteuren ze developpéieren, wou héich qualifizéiert Leit sollen herno eng Aarbecht fannen op där anerer Säit probéiere mer dat Mëttelméissegkeet an eiser Schoul et zum Standard, zum Standargëtt, dat passt op jidde Fall en net iwwerteneen, esou kréie mer weeder déi richteg Leit forméiert, fir an deene Secteuren täteg ze sinn an esou kréie mer weeder.4
/
83
=
4,8%
Chambre-6Här President, d’Ried vum Premierminister huet den Tour vun enger Partie vu wichtege Problemer vum moderne Lëtzebuerg gemaacht, et war jo och kloer gesot ginn, dass dëst en Astig war an eng Debatt, déi Mëtt November weidergeet mat deem wat mer han dann hei an der Chamber iwwert den nationale Plang am Kader vun der Lissabonstrategie …E President, d’Ried vum Premierminister huet den Tour vun enger Partie vu wichtege Problemer vum moderne Lëtzebuerg gemaacht, etwar jo och kloer gesot ginn, dass dëst en Astig war an eng Debatt, déi Mëtt November weidergeet mat deem wat mer a dann hei an der Chamber iwwert den nationale Plang am Kader vun der Lissabonstrategie.3
/
56
=
5,4%

Le taux de reconnaisance des mots du deuxième jeu s’élève à 33 / 466 = 7,1%

Troisième jeu : enregistrements à domicile avec bruit de fond

Nordwand-1 : texte de référence:

An der Zäit hunn sech den Nordwand an d’Sonn gestridden, wie vun hinnen zwee wuel méi staark wier, wéi e Wanderer, deen an ee waarme Mantel agepak war, iwwert de Wee koum. Si goufen sech eens, datt deejéinege fir dee Stäerkste gëlle sollt, deen de Wanderer forcéiere géif, säi Mantel auszedoen.

Identificationgeschriwwenen TextWER
Nordwand 1: sans bruit de fondAn der Zäit hunn sech den Nordwand an d’Sonn gestridden wie vun hunnen zwee wuel méi staark wier wéi e Wanderer deen an ee waarme Mantel agepaakt war iwwert de Wee koum si goufe sech eens datt deejéinege fir dee stäerkste gëlle sollt deen de Wanderer forcéiere géif säi Mantel auszedoen.2
/
51
=
3,9%
Nordwand 1: bruit enfants
0db peak
An der Zäit hu sech den Loft Wand an Son gestridden wie vun hinnen zwee wuel méi staark wier wéi e Wanderer deen an de waarme Wandel agepakt war iwwert de Wee koum si goufe sech eens datt deejéinege fir dee stäerkste gëlle sollt deen de Wanderer forcéiere géif säi Mantel auszedoen.
Nordwand 1: bruit enfants -10db peakAn der Zäit hu sech den Noftwand an d’Sonn gestridden wie vun hunnen zwee wuel méi staark wier wéi e Wanderer deen an ee waarme Mantel agepaakt war iwwert de Wee koum si goufe sech eens datt deejéinege fir dee stäerkste gëlle sollt deen de Wanderer forcéiere géif säi Mantel auszedoen.
Nordwand 1: bruit enfants
-20db peak
An der Zäit hunn sech den Nordwand an d’Sonn gestridden wie vun hunnen zwee wuel méi staark wier wéi e Wanderer deen an ee waarme Mantel agepaakt war iwwert de Wee koum si goufe sech eens datt deejéinege fir dee stäerkste gëlle sollt deen de Wanderer forcéiere géif säi Mantel auszedoen.2
/
51
=
3,9%

Nordwand-2 : texte de référence:

Den Nordwand huet mat aller Force geblosen, awer wat e méi geblosen huet, wat de Wanderer sech méi a säi Mantel agewéckelt huet. Um Enn huet den Nordwand säi Kampf opginn. Dunn huet d’Sonn d’Loft mat hire frëndleche Strale gewiermt, a schonn no kuerzer Zäit huet de Wanderer säi Mantel ausgedoen. Do huet den Nordwand missen zouginn, datt d’Sonn vun hinnen zwee dee Stäerkste wier.

Identificationgeschriwwenen TextWER
Nordwand 2: sans bruit de fondDen Nordwand huet mat aller Force geblosen awer wat e méi geblosen huet wat de Wanderer sech méi a säi Mantel agewéckelt huet um Enn huet den Nordwand säi Kampf opginn dunn huet d’Sonn d’Loft mat hire frëndleche Strale gewiermt a schonn no kuerzer Zäit de Wanderer säi Mantel ausgedoen do huet den Nordwand missten zouginn datt d’Sonn vun hinnen zwee dee stäerkste wier.2
/
65
=
3,1%
Nordwand 2: bruit sèche-cheveux
0db peak
Neeee Eeelere eenee.
Nordwand 2: bruit sèche-cheveux
-10db peak
Den Nord dann gëtt en aller a Eiese a Eegeninteresse geheien Eau huet d’Sonn oft mat hire frendleche Strale Gewienaschonn e Dezembere Anne ausgedoe huet den No Tandis zou ginn dat ëneen zwee beschte wier.
Nordwand 2: bruit sèche-cheveux
-20db peak
Den Nordwand huet mat aller Force geblosen awer wat e méi geblosen huet wat de Wanderer sech méi a säin Mandel agewéckelt hierum Enn huet den Nord a säi Kand dunn huet d’Sond d’Loft mat hire frëndleche Strale gewiert a schonn no kuerzer Zäit de Wanderer säi Mantel ausgedoen do huet den Nordwand missten zouginn datt d’Sonn vun hinnen zwee dee stäerkste wier.
Nordwand 2: bruit sèche-cheveux
-30db peak
Den Nordwand huet mat aller Force geblosen awer wat e méi geblosen huet wat de Wanderer sech méi a säi Mantel agewéckelt huet um Enn huet den Nordwand säi Kampf opginn dunn huet d’Sonn d’Loft mat hire frëndleche Strale gewiermt a schonn no kuerzer Zäit de Wanderer säi Mantel ausgedoen do huet den Nordwand missten zouginn datt d’Sonn vun hinnen zwee dee stäerkste wier.2
/
65
=
3,1%

Conclusions

Pour l’évaluation globale je n’ai pas considéré les résultats des enregistrements avec un bruit de fond élevé. Pour le calcul du WER moyen pour mon test complet je me suis de nouveau adressé au modèle AI ChatGPT, avec la question suivante: “What is the WER if I found 51 errors for 833 words in the reference transcriptions ?“.

Click to zoom

ChatGPT va remplacer ma calculatrice. J’ai demandé l’avis du ChatGPT au sujet du résultat avec la question “Is this WER value good or bad for a low resource language ASR system ?“.

Click to zoom

Je me rallie à cet avis et j’attribue cinq étoiles à l’application actuelle schreifmaschinn.lu. Pour terminer, j’ai demandé l’opinion personnelle de ChatGPT concernant le résultat. Voici sa réponse:

Click to zoom

Il n’y a rien à ajouter!

Bibliographie

Veuillez prouver que vous n’êtes pas une AI (intelligence artificielle)

Le 12 octobre 2022 An Rong a publié le tweet suivant sur Twitter pour inviter le public à compléter un dessin d’une tête et de pieds d’un dinosaure de manière à prouver que l’image résultante n’a pas été générée par une intelligence artificielle (AI).

Le Tweet a connu un grand succès avec 12.800 Likes, presque 3000 retweets et plus que 1000 réponses, incluant de nombreuses créations d’images. Le tweet a été lancé dans le contexte des modèles neuronaux d’art génératif, basés sur la technologie Stable Diffusion et supportant la fonction inPainting.

An Rong à obtenu en 2019 son diplôme d’études muséales à l’Université de New York. Son travail de fin d’études portait sur l’art et les blockchains. Après ses études elle a joint la start-up SuperRare où elle est actuellement directeur des arts et des programmes culturels. Elle considère que pouvoir travailler chaque jour avec du CryptoArt et des NFTs et de faire la connaissance de jeunes artistes brillants dans le domaine de l’art digital est un poste de rêve.

An Rong est rédactrice du magazine SuperRare et du bulletin d’information correspondant. En mai 2022 elle a présenté à SoHo, New York, la première galerie éphémère brique et mortier de la plateforme NFT SupeRare. Elle était également curateur de l’exposition Invisible Cities en 2021, ensemble avec Elisabeth Johs, et de l’exposition Un-Realism en 2022, ensemble avec Fabio Giampietro et Skygolpe.

Invisible Cities : Emiris – the forgotten city, by Mari.K (MadMaraca), 2021, Unique Non- Fungible Token

En ce qui concerne l’image du dinosaure à compléter, mes petits-enfants ont ajouté les contours du corps et coloré le dessin. Le dinosaure du milieu vient de dévorer une proie, les taches rouges sont du sang qui a coulé.

Les images complétées par des adultes, suite à l’invitation de An Rong, sont plus astucieuses. J’ai assemblé ci-après un collage avec 30 dessins en noir et blanc. On peut retrouver les noms des artistes afférents sur Twitter dans les réponses au tweet original.

Assemblage de 30 images n/b d’un dinosaure dessinées par des humains (cliquez pour agrandir)

L’affichage qui suit montre 25 dessins complétés supplémentaires, mais cette fois en couleur. Comme expliqué ci-avant, le lecteur intéressé trouve les noms des artistes sur Twitter.

Assemblage de 25 images colorées d’un dinosaure dessinées par des humains (cliquez pour agrandir)

Et pour ceux qui se demandent quels types de dessins sont générés par un modèle AI, j’ai assemblé ci-après quelques images de dinosaures complétées par DALLE*2, avec la description entrée “dinosaur with flowers” :

Images complétées avec le modèle DALLE*2 de OpenAi

Bibliography

J’ai acheté et vendu mes premiers NFTs sur le web

Dernière mise à jour : 1er décembre 2023

1. Introduction

Depuis plusieurs années on lit ou entend de plus en plus souvent un terme mystérieux: NFT (non-fungible token) ou JNF (jeton non fongible). Il s’agit d’une donnée cryptée qui représente un objet numérique auquel est rattachée une identité numérique, c.à.d. un propriétaire. Cette donnée est stockée et authentifiée grâce à un protocole de chaîne de blocs (blockchain), c.à.d. un registre numérique public et décentralisé. Un NFT est payé avec des unités de crypto-monnaie qui sont gérées, ensemble avec les NFTs, dans un portefeuille numérique.

Avant de présenter en détail ces différentes technologies, je vais les introduire moyennant deux cas concrets, l’achat et la vente d’une oeuvre d’art numérique sur Internet. Les NFTs ne sont pas limités au domaine de l’art, mais sont utilisés surtout dans différents secteurs professionnels. Comme une oeuvre d’art digitale est quelque chose de tangible, elle se prête bien pour expliquer le concept à l’homme de la rue qui sera confronté probablement de plus en plus souvent avec des NFTs, suite à l’explosion récente des générateurs d’art neuronaux basés sur l’intelligence artificielle (images, vidéos, littérature, musique, …).

2. The Happyness Amplified

NFT “The Happyness Amplified” de l’artiste Raphaël Laventure

L’image animée GIF ci-dessus est une oeuvre d’art numérique créée par l’artiste français Raphaël Laventure. L’oeuvre a été frappée le 17 mai 2022 par l’agence marketing luxembourgeoise The Dots, fondée en 2021 par Kamel Amroune. L’oeuvre est mis en vente sur la place de marché objkt.com au prix de 115 ꜩ (Tezos), ce qui correspond à environ 200 €. Elle fait partie d’une collection de 4 NFTs et porte le nom de The Happiness Amplified. En janvier 2022, lors de la présentation de l’événement Metavers Month, l’agence The Dots avait annoncé la création d’un NFT en collaboration avec l’artiste Raphaël Laventure. Quelques mois plus tard, The Dots a confirmé dans son service phare Techsense que le NFT était prêt.

La frappe NFT (minting) est le processus de conversion d’un fichier numérique en un objet de collection crypto. Après la frappe il est impossible de supprimer, d’éditer ou de modifier l’identité numérique ou le fichier afférent stocké sur la chaîne de blocs correspondante.

L’acheteur d’une NFT comme The Happiness Amplified peut la mettre dans un cadre numérique installé dans son salon ou l’afficher sur un grand écran attaché au mur de son salon. Tout comme chacun peut s’accrocher une copie, une affiche ou une impression d’une célèbre peinture dans son salon, il n’existe qu’un seul original dont l’authenticité est certifiée en général par le musée qui détient cette oeuvre. Dans le cas d’une NFT ce n’est pas différent. Un surfeur sur Internet ayant quelques notions techniques peut cloner ou copier l’objet numérique, mais il ne peut pas falsifier l’identité numérique contenue dans la chaîne de blocs qui authentifie l’origine et le propriétaire de l’objet.

Dans une première phase j’ai été tenté d’acquérir une édition de cette oeuvre pour démarrer mes expériences NFT, mais j’ai hésité ensuite pour engager une somme relativement élevée dans une aventure que je ne maîtrise pas encore et qui porte certains risques. Dans un article écrit pour Delano et traduit pour Paperjam, l’artiste luxembourgeois de renom Sumo a confessé qu’il a mis environ un an pour comprendre qu’un NFT n’est pas seulement un jpeg. Dans la suite il est devenu un grand fan des jetons non fongibles.

Un deuxième témoignage, celui de Jil Haberstig, consultant, artiste et fondatrice du Lux NFT Club, va dans le même sens. Dans un entretien publié sur le site web siliconluxembourg en janvier 2022, intitulé Selling NFTs Is Almost A Full-Time Job, Jil Haberstig a déclaré

It requires a lot of technical knowhow. It took me almost a year to have a sense of what I’m doing (laughs) and I still feel that every day. It’s evolving very fast and before you can enter the NFT market or get involved, first of all you have to understand the crypto market, otherwise you’re not able to sell or buy NFTs. If you’re not in the crypto market NFT is just a word.

J’ai donc compris que acheter et vendre ses premiers NFTs n’est pas l’affaire d’une journée et qu’il faut aller en douceur.

N.B. Le 2 novembre 2022 Meta a annoncé qu’elle va bientôt supporter la vente de NFTs à partir de Instagram, ce qui peut faciliter les démarches dans l’avenir. Meta avait démarré en mai 2022 un projet pilote afférent aux Etats-Unis avec quelque artistes sélectionnés.

3. Reunited NFT

Suite à quelques recherches sur Google, j’ai appris que Opensea est la place de marché NFT la plus connue et qu’elle couvre surtout le domaine de l’art. J’ai commencé à explorer cette plateforme et j’ai rapidement trouvé une collection au nom de Cheap NFTs for Sale.

Collection “Cheap NFTs for sale” sur la place de marché Opensea

Les artistes qui créent des oeuvres numériques pour cette collection affirment que leur objectif n’est pas de gagner de l’argent, mais de faciliter l’accès à ces nouvelles technologies à l’homme de la rue. C’est parfait, c’est ce qu’il me faut. Il faut dire que la qualité des images numériques de cette collection n’est pas fameuse. Comme mon souhait n’était pas d’acquérir un chef-d’oeuvre, mais de me familiariser avec la technique NFT, j’ai choisi un objet au nom de Reunited NFT au prix affiché de 0.004 ETH sur la chaîne de blocs Polygon. Ce prix correspondait à environ 6 €. Voilà cette image:

Oeuvre d’art numérique “United NFT”

4. Guide NFT pour les débutants

Pour progresser avec l’achat de mon NFT sélectionné, j’ai cherché des guides et tutoriels afférents sur le web moyennant Google Search. L’article Où et comment acheter un NFT ? Le guide ultime pour débutant, publié le 6 octobre 2022 sur la page web cryptonaute.fr, me paraissait sérieux. J’ai appris que la première étape consiste à acheter de la crypto-monnaie sur une plateforme reconnue et fiable. On me proposait de cliquer sur un bouton vert pour créer un compte sur Crypto.com, ce que j’ai fait.

J’étais étonné de voir qu’après plusieurs redirections je me suis retrouvé sur une page gate.io pour ouvrir ce compte (voir copies-écran ci-dessus). J’étais en outre intrigué au sujet des propositions de m’offrir un cadeau de bienvenu de 100 € lors de l’inscription et un bonus de 5.500 € lors de transactions réussies. Je me suis méfié de ne pas voir des prix ou des conditions générales sur cette page. Probablement c’est ca le monde des NFTs ? Avec une certaine prudence j’ai entré le soir du dimanche 9 octobre 2022 mon numéro mobile et les autres données requises sur la page web de création du compte. A la fin j’étais informé que le minimum d’achat de crypto-monnaie était de 250 €, ce qui m’a amené à interrompre le processus d’inscription. J’ai décidé de m’informer davantage sur le monde NFT avant de continuer.

Le lendemain tôt le matin, une dame m’appelait sur mon mobile pour m’offrir son support à changer ma vie. Elle avait vu que j’avais abandonné la soirée précédente le processus de création d’un compte sur crypto.com. Elle essayait par tous les moyens de me convaincre de compléter mon inscription et ses conseils se ont transformés rapidement dans un vrai harcèlement. J’étais obligé d’interrompre l’appel par la force. Décidément le monde des NFT est particulier !

5. Plateforme Coinbase

Après des recherches et investigations supplémentaires, j’étais persuadé que la société Coinbase, fondée en 2012, était un acteur fiable et j’ai décidé de lancer une deuxième tentative d’achat de crypto-monnaie auprès de ce marchand. Lors de la demande des coordonnées de ma carte de crédit, j’ai indiqué, avec la prudence voulue, les numéros et dates de ma carte Easy VISA prépayée de POST Luxembourg. Quelle était ma stupeur en lisant le message d’erreur que les cartes de crédit prépayées ne sont pas acceptées. Comme l’utilisation de ma carte de crédit standard sur des sites Internet, avec lesquels je n’ai pas de relations établies, me semblait trop risquée, j’ai opté pour une autre méthode de paiement proposée par Coinbase: un virement international SEPA. Sur BIL Online j’ai effectué un virement de 25€ sur une banque en Estonie, au profit d’une société domiciliée en Irlande, à l’attention de Coinbase . Le monde NFT est vraiment international ! Et c’était un succès. Trois jours plus tard j’étais le détenteur d’un compte Coinbase avec un dépôt de 25€. Les images ci-après documentent différentes étapes de mon processus de création de ce compte : téléchargement d’une copie de la carte d’identité, téléchargement d’un document récent de la banque avec mon nom et mon adresse postale, sauvegarde d’une photo selfie avec une notice “For Coinbase Trading 16.10.2022” dans la main, contrôle des données, réception d’un code de vérification par SMS, messages de confirmation, virement etc.

6. Portefeuille MetaMask

Pour convertir le dépôt sur Coinbase en crypto-monnaie il faut disposer d’un portefeuille numérique (wallet en anglais). Coinbase dispose de son propre portefeuille Coinbase Wallet, mais il est recommandé d’utiliser un portefeuille numérique non affilié à un marchand de crypto-monnaie. Dans la documentation sur les NFTs sur le web un nom d’un portefeuille indépendant est souvent référencé: MetaMask, avec comme logo une icône d’une tête de renard.

Portefeuille Metamask

Le portefeuille existe en deux formats: comme extension pour un navigateur (web-browser) ou comme app pour les tablettes et mobiles. Bien que le navigateur Safari de mon MacBook n’est pas supporté par MetaMask, j’ai opté pour démarrer avec l’option extension navigateur. De toute façon je préfère utiliser le navigateur Chrome sur MacBook, car j’avais remarqué que de nombreuses pages web, en relation avec les NFTs, ne sont pas affichées correctement dans Safari. L’installation de l’extension MetaMask dans Chrome a été effectuée avec succès, moyennant quelques clics. La première étape consistait à valider une phrase secrète de 12 mots. Si on ne dispose plus de cette phrase, il n’y a aucun moyen pour récupérer son portefeuille.Une phrase secrète est proposé par MetaMask. L’image ci-après montre la fenêtre afférente:

Activation d’une phrase secrète de 12 mots pour créer un portefeuille numérique

Pour confirmer il faut entrer les 12 mots dans le bon ordre dans la fenêtre qui suit:

Confirmation de la phrase secrète de 12 mots pour le portefeuille numérique MetaMask.

Il va de soi que la copie écran ci-dessus ne montre pas les vrais mots de mon portefeuille ! Après sauvegarde et confirmation de ma phrase de backup, le grand moment était venu pour convertir une partie de mon dépôt sur Coinbase en crypto-monnaie. J’ai commencé avec 10€. La conversion a pris un certain temps et Coinbase a retenu une commission de 0,99€.

Le solde de 0,00665662 ETH, la crypto-monnaie de Ethereum, devait être suffisant pour payer mon NFT sélectionné au prix 0,004 ETH. En plus, j’ai reçu une récompense de 5€.

7. Premières tentatives d’achat d’une NFT

Pour acheter le NFT choisi, je retournais sur le site web Opensea et j’ai ajouté l’objet d’art dans mon caddie virtuel. J’ai été redirigé vers mon portefeuille MetaMask, j’ai confirmé l’achat et après plusieurs heures j’ai été informé que l’achat avait échoué. J’ai pensé que j’avais probablement effectué une mauvaise manipulation et je me suis lancé dans une deuxième tentative. Comme le montant des ETH dans mon portefeuille avait toutefois sensiblement diminué et était même inférieur à 0.001 unités, j’ai d’abord dû convertir le reste de mes 25€, virés sur Coinbase, en crypto-monnaie. Pour le deuxième essai d’achat j’ai soigneusement vérifié chaque pas et j’ai lu en détail toutes les informations affichées dans la séquence des fenêtres qui s’ouvraient après chaque clic sur un bouton de confirmation. Hélas ma deuxième tentative, ainsi qu’une troisième, ont également échoué et à la fin je me suis retrouvé sans NFT et presque sans ETHs restants. Pour me consoler, je me suis dit que la dépense des 25€ constituait un investissement dans mon apprentissage. J’ai passé les jours qui suivaient avec la recherche et la lecture de contributions sur Internet au sujet de l’achat de NFTs. A la fin j’étais conscient que j’avais commis plusieurs erreurs :

  1. J’avais converti mes € en unités de crypto-monnaie ETH sur la chaîne de blocs Ethereum main au lieu de la chaîne Polygon. Il faut donc utiliser un pont (bridge) pour les transférer sur la chaîne dans laquelle le NFT sélectionné a été frappé.
  2. Je n’avais pas pris note que le la version actuelle de l’extension MetaMask ne comporte pas de support natif des NFTs, mais qu’il est recommandé d’utiliser l’application pour mobiles pour gérer les achats.
  3. J’avais sous-estimé les coûts des transactions en relation avec des chaînes de blocs. Pour chaque transaction il faut payer du gaz (ou du carburant; ce sont vraiment les termes techniques de ces opérations) pour les opérateurs qui gèrent d’une façon décentralisée les chaînes de blocs. Et même l’homme de la rue sait aujourd’hui que le gaz est cher ! En cas d’échec d’une transaction, les dépenses pour le gaz ne sont pas remboursées.

A coté des commissions encaissées par les marchands, mon dépôt de 25€ a donc surtout été utilisé pour brûler du gaz.

8. Première réussite d’acquisition d’une NFT

Pour progresser, j’ai d’abord téléchargé et installé l’application mobile MetaMask depuis l’AppStore d’Apple sur mon iPhone. Ensuite j’ai configuré et personnalisé cette app moyennant la saisie de ma phrase secrète à 12 mots. Comme je ne disposais plus de crédits, la prochaine étape consistait à recharger mon portefeuille. Lors de mes derniers recherches sur le web, j’avais appris qu’il était possible d’ajouter des fonds à partir de MetaTask, via le marchand Moonpay, avec une carte de crédit. Le minimum d’achat était de 30€, la commission de Moonpay était le triple (3,33€ pour 30€) de celle de Coinbase, mais en revanche ma carte de crédit prépayée Easy VISA a été acceptée.

Message de confirmation de paiement avec Moonpay

Après la réception d’un montant de 0.0223 ETH (Polygon), j’ai remis le NFT sélectionné dans mon caddy sur Opensea et ajusté le prix maximal à payer pour le gaz de la transaction. Après une dernière vérification de tous les éléments, jai confirmé l’achat. Quelques heures plus tard j’étais l’heureux propriétaire de l’oeuvre d’art numérique United NFT. La galerie d’images qui suit présente quelques copies écran du processus exécuté sur mon iPhone.

9. Création de mon premier NFT

Après ce succès d’achat d’un premier NFT, je me suis dit qu’il convient maintenant de vendre mon premier NFT. Mais avant de le vendre il faut le créer. J’étais d’avis qu’une simple image statique était trop banale et qu’il fallait présenter quelque chose qui bouge, par exemple une animation ou une vidéo. J’ai donc fouillé dans mes archives et j’ai trouvé une animation que j’avais réalisé il y a quelques années pour montrer une partie d’un jeu de moulin où une personne joue contre un ordinateur. J’ai développé et programmé ce tablier électronique d’un jeu de moulin (Elektronesch Millchen) en 1977.

Les 24 intersections du tablier contiennent chacune une photodiode et une LED. L’ordinateur joue avec des pions rouges et il signale par une LED clignotante où il souhaite poser son pion. Son adversaire humain pose un pion rouge sur la position indiquée et l’ordinateur acquitte la manoeuvre correcte en allumant la LED en permanence. Un pion posé par le joueur humain est reconnu par l’ordinateur via la photodiode et l’acquittement se fait également par l’allumage continue de la LED. Le clignotement de deux LEDs signale un changement de position d’un pion rouge voulue par l’ordinateur, tandis que le clignotement à côté d’un pion noir veut dire qu’il faut l’enlever, suite à un moulin fermé par l’ordinateur. Dans la présente animation le jeu se termine par un blocage de l’ordinateur et l’humain sort comme vainqueur. J’ai convertie l’animation en vidéo mp4 et je l’ai hébergée sur Youtube.

Certes cette animation n’est pas un chef-d’oeuvre artistique, mais elle se distingue par trois particularités. C’est d’abord un prédécesseur des systèmes actuels d’intelligence artificielle et un NFT afférent constituerait un témoignage historique. C’est également un objet numérique qui se prête pour former un élément unique parmi une collection de parties du jeu de moulin. Chaque partie serait basée sur une autre stratégie de jeu et chaque animation serait donc unique. Last not least c’est un projet artistique handmade. J’ai pris une photo du tablier après chaque changement de position d’un pion et j’ai retouché la couleur des LEDs dans Photoshop. Ensuite j’ai assemblé la centaine de photos dans une image animée GIF, avec une conversion finale en vidéo.

La création du NFT était facile et a été exécutée sans frais. J’ai téléchargé le fichier vidéo sur mon compte Opensea, j’ai spécifié la phrase The Winner is Black comme nom du NFT et j’ai définie comme prix de vente le même montant que celui de mon premier NFT acheté, c.à.d. 0.004 ETH (Polygon). La copie écran de ma page personnelle sur Opensea ci-après montre le résultat:

10. Vente de mon premier NFT

Pour forcer la vente (fake is in !) de mon NFT “The Winner is Black” j’ai invité mon ami virtuel Lutz Basel à faire l’achat. Pour ce faire il devait disposer de son propre portefeuille MetaMask. Comme on peut seulement installer un seul portefeuille comme extension d’un navigateur, ou comme application sur un mobile, Lutz a utilisé le navigateur Firefox, au lieu de Chrome, sur mon MacBook. Au lieu de mon iPhone il a pris mon mobile Android (Nokia 2.3) pour installer l’application MetaMask à partir du Google PlayStore.

En profitant de mon expérience concernant la configuration du portefeuille MetaMask, Lutz a vite réussi à confirmer une phrase backup de 12 mots pour initialiser son portefeuille. Je souhaitais transférer les frais d’achat de mon portefeuille sur celui de Lutz. C’était facile, au lieu de saisir le code d’identité du portfeuille de Lutz, composé d’une séquence de 42 caractères et chiffres, j’ai pu capter le code QR afférent avec la caméra de mon iPhone. Avec le gaz nécessaire, la transaction a été rapidement exécutée. Il restait à Lutz de chercher son objet d’art sur Opensea, de le mettre dans son caddy, de confirmer l’achat, sans oublier le gaz, et le NFT changait de propriétaire. Ma première vente d’un NFT était une réussite ! Comme d’habitude, je joins ci-après quelques copies écran pour illustrer le processus sur mon mobile Nokia.

11. Inspection de la chaîne de blocs

Pour m’assurer que l’achat et la vente de mes NFT sont correctement enregistrés, je souhaite inspecter la chaîne de blocs correspondante. L’outil pour ce faire s’appelle blockchain explorer. En principe chaque chaîne de blocs dispose de son propre explorateur, mais il y a quelques outils qui supportent plusieurs chaînes. Mes propres transactions pour l’achat et la vente d’un NFT ont été exécutées sur la chaîne de blocs Polygon et l’outil d’exploration afférente s’appelle Polygonscan. Pour trouver une transaction spécifique, on peut spécifier l’identité d’un portefeuille, le numéro d’un bloc, le hash de la transaction, etc, comme critère de recherche. Souvent on connaît seulement l’identité du portefeuille utilisé:

  • Marco Barnig, ID : 0xD8c59cb936Db3767b6d7079563D7BEa9a75720ce
  • Lutz Basel, ID: 0xbf785d93aF1d528d9A2601c256c1530F37cbA014

Je commence avec mon ami virtuel Lutz Basel qui a effectué 3 transactions: la première est liée à mon transfert de fonds, la deuxième constitue l’approbation de la réception de ces fonds et la troisième se réfère à l’achat de mon NFT. La copie écran qui suit montre les résultats de recherche avec l’ID du portefeuille de Lutz Basel.

Transactions effectuées par Lutz Basel

Les trois transactions sont relevées en bas de la page web. Si on clique sur le numéro du bloc d’une transaction, les détails de ce bloc sont affichés dans une nouvelle fenêtre. L’image qui suit montre un exemple, il s’agit du bloc No 34585013 affilié à l’achat du NFT.

Contenu du bloc No 3458013

On constate que le bloc en question contient 53 transactions internes et 11 transactions liées à un contrat interne. Un bloc rassemble plusieurs transactions lancées par différents usagers. Les images qui suivent montrent des extraits des listes détaillées de ces transactions qui sont affichées si on clique sur les liens inclus dans la ligne intitulée Transactions.

Avec le hashtag de la transaction on peut rechercher les données dans le bloc en question. Je l’ai marqué en jaune dans la liste des 53 transactions internes incluses dans le bloc No 3458013.

Pour comprendre le contenu des autres données enregistrées dans le bloc il faut être expert et les explications à ce sujet dépasseraient le cadre de la présente contribution. Je laisse le plaisir aux lecteurs avertis d’explorer les autres blocs, ainsi que les blocs associés à mon propre portefeuille. Ces blocs contiennent également toutes les transactions échouées lors de mes premiers essais.

Si vous éprouvez des problèmes de compréhension, vous devez vous rappeler les témoignages des deux artistes au début de mon article au sujet de la complexité de la technologie NFT et de la durée d’apprentissage d’une année. Ce rappel termine la première partie de la présente. Dans les prochains chapitres je vais ajouter quelques généralités sur les techniques en mettant le focus sur la situation au Luxembourg.

12. Les fondations des NFTs

Dans la première partie de cet article j’ai introduit les technologies qui constituent les fondations des NFTs. Dans la suite je vais compléter la description des éléments suivants:

  • crypto-monnaie (crypto currencies)
  • chaîne de blocs (blockchain)
  • jetons (tokens) et transactions (transactions)
  • portefeuilles (wallets)
  • blocs (blocks) et carburant (gas)
  • plateformes de marché NFT

12.1 Crypto-monnaie

Wikipedia fournit la définition suivante de la crypto-monnaie :

Une crypto-monnaie, dite aussi cryptoactif, cryptodevise, monnaie cryptographique ou encore cybermonnaie, est une monnaie numérique (actif numérique) émise de pair à pair, sans nécessité de banque centrale, utilisable au moyen d’un réseau informatique décentralisé. Elle utilise des technologies de cryptographie et associe l’utilisateur aux processus d’émission et de règlement des transactions.

Comme il n’y a pas de régulateur de la crypto-monnaie, on ne dispose pas de chiffres exactes sur ce marché. La société CoinMarketCap, fondée en 2013 par Brandon Chez, maintient le site web le plus référencé dans ce domaine. On estime qu’en 2022 plus de 20.000 monnaies différentes existent, mais dont la moitié n’est plus marchandé. La valeur totale du marché dépasse 10.000 milliards €.

Dans la première partie de l’article nous avons fait connaissance de quatre crypto-monnaies: Tezos, ETH (main), ETH (Polygon), MATIC. Le Bitcoin (BTC) était la première monnaie cryptographique, présentée dans un livre blanc en 2008, par une personne au pseudonyme de Satoshi Nakamoto. Le code source de l’implémentation de référence a été publié en 2009. Le Bitcoin est toujours la crypto-monnaie la plus connue. Parmi la multitude des monnaies il convient de citer les autres représentants populaires suivants : Tether (USDT), BNB, XRP, Cardano (ADA), Solana (SOL), Dogecoin (DOGE) et Polkadot (DOT).

La valeur d’une crypto-monnaie par rapport aux $ ou € peut varier d’une seconde à l’autre. Les images qui suivent montrent la valeur de mon portefeuille à une intervalle de 24 heures. L’ETH a perdu de 3,6% en valeur.

Les fluctuations de la valeur de l’ETH pendant une journée sont affichées ci-après :

Fluctuations de la valeur de l’ETH

Pour certains internautes le marchandage de crypto-monnaie est devenu une drogue. Certains gagnent gros, mais la majorité fait des pertes. Il faut être conscient que ceux qui gagnent dans tous les cas sont les marchands professionnels avec les commissions et les mineurs avec la vente du gaz.

On ne compte pas seulement des milliers de crypto-monnaies, mais également des milliers de plateformes pour acheter ou vendre des crypto-monnaies.

12.2 Chaînes de blocs (Blockchains)

Dans la première partie de la présente trois blockchains ont été présentées : Tezos, Ethereum et Polygon. Mais il y a des centaines, voire des milliers de chaînes différentes. On distingue quatre types:

  • blockchains publiques
  • blockchains privées
  • blockchains de consortium
  • blockchains hybrides

A coté des blockchains référencées ci-avant (Bitcoin, Ethereum,Tezos et Polygon), quelques autres plateformes de renom sont relevées ci-après :

Les blockchains sont normalisées par le comité technique 37 de l’ISO. L’Institut luxembourgeois de la normalisation, de l’accréditation, de la sécurité et qualité des produits et services (ILNAS), une administration publique sous l’autorité du ministre de l’Économie, a publié unn rapport national de normalisation technique dans le domaine de la blockchain.

Le Luxembourg est bien positionné dans le domaine de ces nouvelles technologies. Sur le site web luxembourg.public.lu on peut lire que le Luxembourg se veut pionnier européen dans le monde du blockchain.

Luxembourg Blockchain

La définition suivante du blockchain est fournie sur ce site :

Décentralisation, transparence et immutabilité sont les mots clé du blockchain. Au Luxembourg les piliers ont été construits pour définir la bonne stratégie de développement de ces chaînes logistiques. En route maintenant pour favoriser l’adoption à grande échelle et pour le bien général du pays.

Un blockchain est un enregistrement numérique des transactions. Son nom vient de sa structure, dans laquelle les enregistrements individuels, appelés blocs, sont reliés entre eux dans une liste unique, appelée chaîne. Aujourd’hui, les chaînes de blocs sont utilisées principalement dans le secteur financier, mais l’identification numérique, la preuve de la propriété foncière, la gestion de la chaîne logistique et même le vote ne sont qu’une fraction des applications potentielles qui seraient d’intérêt pour le secteur public aussi.

Son fonctionnement décentralisé permet en outre de résoudre des problèmes liés à des points d’échec unique en cas de sinistres ou d’attaques et porte ainsi le potentiel d’aider les acteurs publics et les entreprises à réduire la fraude et les erreurs ou à améliorer la transparence de leurs données et transactions.

L’année 2019 a été une année charnière pour les blockchains au Luxembourg. Le 1er mars 2019 un nouveau article a été ajouté à la loi du 1er août 2001 concernant la circulation de titres aux fins d’autoriser les blockchains pour tenir des comptes-titres. La même année, le ministère de la Digitalisation, ensemble avec le Syndicat intercommunal de gestion information (SIGI) et le Centre des technologies de l’information de l’État (CTIE) ont annoncé la création de la première blockchain du secteur public. La digitalisation intégrale des aides financières de l’État pour études supérieures a démarré le 1er août 2019 comme projet phare de la blockchain du secteur public. La Spuerkeess a joué dans ce contexte le rôle de banque-pilote. En décembre 2019 les acteurs suivants ont lancé une collaboration afin de renforcer le Luxembourg en tant que blockchain hub européen par excellence.

  • INFRACHAIN a.s.b.l.
  • LëtzBlock
  • LHoFT (Luxembourg House of Financial Technology)
  • LIST (Luxembourg Institut of Science and Technology)
  • SnT (Interdisciplinary Centre for Security, Reliability and Trust de l’Université du Luxembourg)
Luxembourg Blockchain Lab

Les cinq acteurs ont fondé le Luxembourg Blockchain Lab (LBL) pour créer un large écosystème du blockchain au Luxembourg. Le laboratoire a organisé une première semaine Blockchain (blockchainweeks) du 26 au 30 avril 2021 au Luxembourg. Une deuxième édition des blockchainweeks a eu lieu du 3 au 7 octobre 2022.

Infrachain est présidée par Fabrice Croiseaux, CEO de Intech, une entreprise du groupe POST. Le chef de projet est Tom Kettels. Lëtzblock est présidée par Biba Homsy et dirigée par Arnaud Wenger. Le Conseil d’Administration de LHoFT se compose de 18 personnalités du monde financier luxembourgeois et présidé par Yuriko Backes, ministre des finances. Le CEO est Nasir Zubairi. Le LIST est présidé par Eva Kremer et dirigé par Thomas Kallstenius. Le SnT est dirigé par Björn Ottersten. Les technologies des finances (FinTech) sont une des quatre priorités de recherche du SnT. Parmi les 15 groupes de recherche du SnT il convient de citer CryptoLux et FINATRAX dans ce contexte. Le LBL est dirigé par Emilie Allaert. Le LBL est un partenaire de l’initiative Digital Learning Block (DLB) et en charge de l’enseignement des blockchains. Les autres partenaires du DLB, créé par le Ministère de l’Education, sont Ecole 42, D-School et SECURITYMADEIN.LU (depuis le 17.10.2022 Luxembourg House of Cybersecurity : LHC).

Des formations sur les technologies blockchain sont également proposées par lifelong-learning.lu, Luxinnovation, PWC et Abilways.

12.3 Jetons (tokens) et transactions

L’unité de données stockée dans une chaine de blocs, qui est unique, est appelée jeton (token en anglais). On distingue les jetons fongibles et les jetons non-fongibles. Un jeton fongible appartient à une même catégorie et ne se distingue pas des autres jetons appartenant à cette catégorie. Par exemple, un bitcoin ne possède pas d’identité propre et ne peut pas être tracé. Un bitcoin vaut toujours un autre bitcoin et peut être remplacé par n’importe quel autre bitcoin. On dit qu’il est interchangeable, c.à.d. fongible. La majorité des crypto-monnaies, et toutes les monnaies réelles, sont fongibles.

Les unités de données stockées dans une chaine de blocs qui disposent d’une identité numérique sont appelés jetons non-fongibles (NFT : Non-Fungible Token). Ils ne peuvent pas s’échanger, même s’ils appartiennent à une même catégorie. L’identité numérique constitue un genre de certificat infalsifiable qui atteste de l’authenticité et de la propriété d’un objet virtuel. Nous avons déjà vu les exemples des objets numériques appartenant à la catégorie de l’art contemporain et les contrats des aides financières luxembourgeoises pour les études supérieures. Les domaines d’utilisation des NFT sont innombrables. Par exemple des vignerons utilisent les NFT moyennant des codes QR ou des puces NFC dans les bouchons pour lutter contre la contrefaçon des vins de renom. Au Luxembourg c’est surtout le marché financier qui applique la technologie NFT, mais la société italienne Guala Closures Group, qui produit des bouchons NFC, a installé en 2017 son cinquième centre de recherche dans le monde au Luxembourg. Grâce à une collaboration avec la société luxembourgeoise Compellio les clients peuvent créer leurs propres caves de vin virtuelles avec la technologie NFT.

Wine Developers avec bouchons NFC

Toute manipulation d’un jeton, fongible ou non-fongible, est documentée dans une transaction qui est enregistrée dans un bloc d’une blockchain spécifique.

12.4 Portefeuilles numériques

Pour conserver et gérer ses jetons il faut disposer d’un portefeuille numérique (eWallet). Nous avons déjà fait la connaissance des portefeuilles MetaMask et Coinbase Wallet. Mais il y a une multitude d’autres exemplaires pour tous les goûts. D’abord il faut distinguer les différents supports de portefeuilles numériques:

  • logiciel
  • matériel
  • papier

Les portefeuilles basés sur du matériel procurent la meilleure sécurité. Ceux en forme de logiciel sont les plus flexibles. On distingue des extensions pour navigateurs, des programmes pour ordinateurs ou des applications pour tablettes ou mobiles. On fait encore la différence entre portefeuilles chauds (hot wallets) qui sont toujours connectés à Internet et les portefeuilles froids (cold wallets) qui fonctionnent hors ligne. Les meilleurs combinent et les NFT et les crypto-monnaies et supportent plusieurs blockchains. Les plus simples sont spécialisés pour une seule tâche ou une catégorie NFT déterminée. Des critères de sélection sont bien sûr la sécurité, mais également la facilité de configuration et d’utilisation ainsi que la compatibilité. Les usagers qui veulent éviter tout risque de piratage peuvent revenir au bon vieux papier. Parmi les milliers de portefeuilles proposés sur Internet, quelques exemples populaires sont relevés ci-après:

12.5 Blocs et carburant

Le lecteur sait désormais que toute transaction de jetons est enregistrée dans un bloc qui fait partie d’une chaîne gérée dans un réseau blockchain d’une façon décentralisée. La création d’un nouveau bloc fait référence à une technique ancienne: le minage. Le réseau du type pair-à-pair sur Internet est constitué de serveurs qui fonctionnent grâce à un logiciel dédié. Dans le cas du Bitcoin ce logiciel est Bitcoin-Core. Chaque noeud du réseau dispose d’une copie de la blockchain en question.

Qui sont les gestionnaires de ces réseaux ? Ce sont des individuels, collectifs ou entreprises, appelés mineurs, qui exploitent un noeud de ce réseau. Chacun peut le faire à condition de disposer d’un ordinateur performant, car les calculs cryptographiques à exécuter demandent des puissances de calcul très importantes et des mémoires de taille. En contrepartie les mineurs sont rémunérés pour leurs efforts. Prenons l’exemple de mon transaction pour transférer 15€ à mon ami virtuel Lutz Basel. Le processus se déroule en plusieurs étapes:

  1. Je déclenche la transaction en poussant le bouton confirmation dans mon portefeuille.
  2. La transaction est diffusée dans le réseau par le logiciel du portefeuille MetaMask et placée dans un pool de transactions non confirmées.
  3. Les mineurs sont connectés à ce pool et essayent de rassembler plusieurs transactions du pool pour les intégrer dans un nouveau bloc candidat. Il est probable que mon transaction soit incluse dans des blocs candidats de différents mineurs.
  4. La validité de ma transaction est contrôlée par les mineurs en vérifiant si mon portefeuille dispose des fonds ou jetons suffisants et si toutes les obligations sont respectées.
  5. Les blocs candidats reçoivent une signature nommée preuve de travail en résolvant un problème mathématique très complexe, unique à chaque bloc de transactions. Cette étape est appelée processus de minage.
  6. Le mineur qui a calculé le premier la signature du nouveau bloc candidat diffuse ce blog et la signature à tous les autres noeuds du réseau.
  7. Les autres mineurs vérifient la légitimité de la signature. En cas de validité ils confirment que le bloc peut être ajouté à la chaîne. Ils doivent être tous d’accord, on appelle le processus algorithme de consensus.
  8. Le mineur dont le bloc a été validé reçoit une récompense fixe pour le bloc et une récompense variable (frais de transaction) pour chaque transaction incluse dans le bloc.
  9. Les autres mineurs qui ont inclus mon transaction dans leur bloc candidat doivent recommencer à zéro et la retirer de leur bloc candidat, de même que les autres transactions qui sont déjà intégrées dans le dernier bloc ajouté à la chaîne.

Le succès des mineurs est conditionné par plusieurs facteurs: la performance de leur infrastructure de calcul, la stratégie de minage employée, le trafic et le nombre de noeuds actifs sur le réseau et la chance. Certains mineurs accordent une priorité aux transactions compliquées comportant des frais de transaction importants pour obtenir une meilleure rémunération. D’autres se spécialisent sur des volumes élevés avec des transactions à faible coûts. Le protocole de minage règle la complexité du problème mathématique en fonction des besoins pour maintenir un temps moyen constant entre chaque nouveau bloc.

Dans le cas ou deux nouveaux blocs sont minés simultanément, le protocole prévoit de retenir le bloc le plus long et l’autre est écarté. Après avoir saisi le fonctionnement et la complexité du minage, on comprend mieux la notion de carburant ou de gaz pour rémunérer le travail des mineurs. Si une transaction échoue, par exemple parce que les jetons dans le portefeuille sont insuffisants, les frais de transaction sont encaissés par les mineurs. Si on spécifie un plafond trop bas pour le gaz, les mineurs ont peu d’intérêt pour traiter la transaction en question et elle risque de rester longtemps en attente ou d’atteindre un time-out.

Le minage classique basé sur la preuve de travail a des inconvénients, notamment en ce qui concerne la consommation électrique qui est très conséquente au niveau mondial et qui le classe comme mauvais élève en termes climatiques. Pour pallier à ce problèmes, d’autres méthodes de minage ont été développées:

  • le minage par tiers de confiance: c’est le modèle privilégié des blockchains privés, mais c’est une véritable trahison du modèle original décentralisé.
  • le minage par consensus: des noeuds maîtres décident sur le consensus d’une façon certaine et déterministe; le réseau est donc partiellement centralisé, même si le nombre de noeuds maîtres est élevé.
  • le minage par preuve d’enjeu: des mineurs sont désignés d’une façon pseudo-aléatoire en fonction de leur fortune détenue sur le blockchain pour décider sur le consensus.

Il y a de plus en plus de pays qui envisagent d’interdire le minage par preuve de travail pour des raisons écologiques. Dans le prochain chapitre nous allons nous intéresser pour les plateformes de marchandage, de marché et d’échange.

12.6 Plateformes de crypto-monnaies et de NFTs

Les plateformes de crypto-monnaies Crypto, Coinbase et Moonpay ont été introduites dans la première partie de la présente contribution, de même que les places de marché FNT objkt.com et Opensea.

Quelques autres plateformes de crypto-monnaies sont:

La liste ci-après présente quelques plateformes de marché NFT populaires:

Comme le marché des plateformes de crypto-monnaies et de jetons non-fongibles est très volatil, il importe de se renseigner sur la situation actuelle avant de s’engager dans une plateforme déterminée.

13. Conclusions

Après avoir exploré en détail le monde des NFTs, j’ai l’impression de me retrouver 25 ans en arrière au moment de la bulle Internet. Je crains qu’on se trouve au début d’une bulle NFT et qu’à moyen terme on va se heurter aux mêmes débâcles qu’à la fin des années 1990: endettements, faillites, consolidations, dépréciations, restructurations, démissions, poursuites judiciaires etc.

En tout cas il importe de se familiariser avec la technologie NFT avant de faire des investissements risqués.

Bibliographie

Das Küsschen und die Sonne stritten sich …

Introduction

Le titre de ma présente publication est le résultat d’une traduction automatique française -> allemande du début de la phrase “La bise et le soleil se disputaient, chacun assurant qu’il était le plus fort, quand ils ont vu un voyageur qui s’avançait, enveloppé dans son manteau”.

Modèle Helsinki-NLP/opus-mt-fr-de publié sur la plateforme AI Hugginface

C’est le début d’une fable d’Ésope, extraite d’un ensemble de fables en prose qu’on attribue à l’écrivain grec Ésope. Le texte de la fable La bise et le soleil est utilisé régulièrement par des linguistes dans le cadre de projets de recherche sur le traitement du language naturel (NLP: Natural Language Processing). Cette fable a été traduite dans des centaines de langues mondiales et régionales. Comme je vais me référer plusieurs fois sur cette fable, je vais d’emblée présenter l’intégralité du texte dans les versions française, allemande, anglaise et luxembourgeoise ci-après.

Fables d’Ésope

Ls fables d’Ésope sont des centaines de textes et toutes sortes de récits qui circulaient oralement dans la Grèce antique et qui ont inspiré de nombreux auteurs comme Phèdre, Marie de France, Jean de la Fontaine. La fable d’Ésope La bise et le soleil est très courte, sa morale réside dans l’enseignement que la persuasion, plus lente, s’avère toutefois plus efficace que la violence.

Oeuvre d’art générée par le programme d’intelligence artificielle DALL*E2 avec l’introduction de la description “3D rendering of the fable The North Wind and the Sun were disputing which was the stronger, when a traveler came along wrapped in a warm cloak.”

La bise et le soleil

La bise et le soleil se disputaient, chacun assurant qu’il était le plus fort, quand ils ont vu un voyageur qui s’avançait, enveloppé dans son manteau. Ils sont tombés d’accord que celui qui arriverait le premier à faire ôter son manteau au voyageur serait regardé comme le plus fort. Alors, la bise s’est mise à souffler de toute sa force mais plus elle soufflait, plus le voyageur serrait son manteau autour de lui et à la fin, la bise a renoncé à le lui faire ôter. Alors le soleil a commencé à briller et au bout d’un moment, le voyageur, réchauffé, a ôté son manteau. Ainsi, la bise a dû reconnaître que le soleil était le plus fort des deux.

Norwind und Sonne

Einst stritten sich Nordwind und Sonne, wer von ihnen beiden wohl der Stärkere wäre, als ein Wanderer, der in einen warmen Mantel gehüllt war, des Weges daherkam. Sie wurden einig, daß derjenige für den Stärkeren gelten sollte, der den Wanderer zwingen würde, seinen Mantel abzunehmen. Der Nordwind blies mit aller Macht, aber je mehr er blies, desto fester hüllte sich der Wanderer in seinen Mantel ein. Endlich gab der Nordwind den Kampf auf. Nun erwärmte die Sonne die Luft mit ihren freundlichen Strahlen, und schon nach wenigen Augenblicken zog der Wanderer seinen Mantel aus. Da mußte der Nordwind zugeben, daß die Sonne von ihnen beiden der Stärkere war.

The northwind and the sun

The North Wind and the Sun were disputing which was the stronger, when a traveler came along wrapped in a warm cloak. They agreed that the one who first succeeded in making the traveler take his cloak off should be considered stronger than the other. Then the North Wind blew as hard as he could, but the more he blew the more closely did the traveler fold his cloak around him; and at last the North Wind gave up the attempt. Then the Sun shined out warmly, and immediately the traveler took off his cloak. And so the North Wind was obliged to confess that the Sun was the stronger of the two.

De Nordwand an d’Sonn

An der Zäit hunn sech den Nordwand an d’Sonn gestridden, wie vun hinnen zwee wuel méi staark wier, wéi e Wanderer, deen an ee waarme Mantel agepak war, iwwert de Wee koum. Si goufen sech eens, datt deejéinege fir dee Stäerkste gëlle sollt, deen de Wanderer forcéiere géif, säi Mantel auszedoen. Den Nordwand huet mat aller Force geblosen, awer wat e méi geblosen huet, wat de Wanderer sech méi a säi Mantel agewéckelt huet. Um Enn huet den Nordwand säi Kampf opginn. Dunn huet d’Sonn d’Loft mat hire frëndleche Strale gewiermt, a schonn no kuerzer Zäit huet de Wanderer säi Mantel ausgedoen. Do huet den Nordwand missen zouginn, datt d’Sonn vun hinnen zwee dee Stäerkste wier.

Histoire de la traduction automatique au Luxembourg et au delà

Le Luxembourg figure parmi les pionniers dans l’utilisation de la traduction automatique du fait que les nombreuses institutions européennes, ayant leur siège dans le pays, doivent gérer leurs documents dans les différentes langues officielles de la communauté européenne. Hélas, le luxembourgeois ne fait pas partie de ces languages et ce n’est que récemment que la langue luxembourgeoise est supporté par les systèmes de traduction automatique.

Tout a commencé au début des années 1950 avec la fondation de la Communauté européenne du charbon et de l’acier (CECA) par six nations européennes, dont le Luxembourg. La CECA a été dirigée par la Haute Autorité qui siégeait à Luxembourg et qui gérait quatre langues officielles: français, allemand, italien et néerlandais.

Bâtiment de la Haute Autorité de la CECA. Photo Tony Krier © Phototèque de la Ville de Luxembourg

A la même époque, Warren Weaver, un mathématicien américain, concrétisait ses idées au sujet de la traduction automatique, communiquées en mars 1947 au cybernéticien Norrbert Wiener et publiées en juillet 1949 dans un mémorandum au sujet de la traduction. Sous l’influence de Warren Weaver dans sa qualité de directeur de la fondation Rockefeller, la première démonstration d’une traduction complètement automatique de 60 phrases russes en anglais a eu lieu en janvier 1954. Le développement a été conduit par l’Université de Georgetown, ensemble avec IBM.

Cuthbert Hurd, Léon Dostert et Thomas Watson lors de la 1ère démonstration de la traduction automatique

La même année, les premieres recherches en traduction automatique ont débuté en URSS. Elles se distinguaient des recherches américaines par leur caractère théorique et le choix d’une méthode faisant appel a une langue intermédiaire. Aussi bien du côté américain que du côté russe, la traduction automatique était une arme de la guerre froide. Mais le développement de la traduction automatique ne progressait pas comme prévue et au début des années 1960 les crédits publics de recherche investis dans ce domaine ont été sensiblement réduits des deux côtés.

Retournons au Luxembourg. La Haute Autorité de la CECA fusionnait en 1965 avec les commissions de la Communauté économique européenne (CEE) créée en 1957, puis en 1967 avec la Communauté européenne de l’énergie atomique (Euratom), sur base du traité de fusion des exécutifs des trois communautés. En janvier 1969 l’Office des publications officielles des Communautés européennes, devenu en 2009 l’Office des publications de l’Union européenne, a été créé et domicilié à Luxembourg. L’Office des publications publie quotidiennement le Journal officiel de l’Union européenne dans les 23 langues officielles de l’Union et propose plusieurs services en ligne destinés et aux professionnels et au grand public du monde entier. Dans son rapport d’activités des années 1975 à 1977, la Direction Générale XIII de la Commission Européenne, en charge de la gestion de l’information et de l’innovation, dont le siège se trouvait également à Luxembourg, annonçait le démarrage d’un projet pilote de traduction automatique avec le logiciel SYSTRAN.

Pendant des dizaines d’années, la DG XIII et l’Office des Publications ont été le moteur de la traduction automatique au Luxembourg.

Systran

Le logiciel SYSTRAN a été développé par Peter Toma, né en juillet 1924 à Doboz, un petit village hongrois. Marqué par les misères de la deuxième guerre mondiale, il était persuadé que les barrières linguistiques constituaient un frein pour garantir la paix. Il voulait y remédier et apprenait le russe et l’anglais, à côté de l’hongrois et de l’allemand. Après avoir immigré aux Etats-Unis en 1952, il a travaillé à partir de 1956 comme assistant à l’Institut de technologie de Californie (Caltech). Lorsqu’un ordinateur Datatron 205 a été installé à l’Institut, il espérait pouvoir réaliser son rêve d’enfant: programmer une machine pour traduire un texte en plusieurs langues. Mais les premières tentatives n’étaient pas concluantes et il quittait le Caltech en 1957. Après quelques expériences auprès de firmes privées, il joignait en mars 1959 l’Université de Georgetown pour participer aux travaux du groupe GAT (General Analysis Technique), rebaptisé dans la suite Georgetown Automatic Translation, sur un ordinateur IBM 705. Le chef de projet était Michael Zarechnak. Il est le coauteur du livre Machine Translation publié en 1979. Peter Toma dirigeait une équipe de programmeurs qui réalisait un projet surnommé SERNA. Quand il quittait l’université en 1961, il présentait SERNA comme son invention, ce qui est contesté par ses pairs de l’époque.

Image extraite du film publicitaire de Systran

Peter Toma a été engagé ensuite par la société Computer Concepts à Los Angeles où il valorisait son savoir-faire pour réaliser les projets AUTOTRAN et TECHNOTRAN qui tournaient sur des ordinateurs IBM 7090. Bien que basée toujours sur des règles algorithmiques, la conception de ces programmes était complètement différente de celle du projet SERNA. En 1964 Peter Toma présentait les systèmes de traduction automatiques à des scientifiques européens à l’Université de Bonn en Allemagne. Le problème était toutefois que l’ordinateur IBM 7090 ne disposait pas de mémoire et de puissance de calcul suffisantes pour traduire plus que des courtes phrases.

Lors du vol vers l’Allemagne, Peter Toma avait lu le manuel d’instruction du nouvel ordinateur 360, annoncé par IBM. D’emblée il était persuadé que cet ordinateur permettait de réaliser vraiment ses rêves et il concevait dans sa tête l’idée comment transformer AUTOTRAN et TECHNOTRAN dans un nouveau produit qu’il nommait SYSTRAN. Comme l’environnement de travail était plus propice en Europe qu’aux Etats-Unis pour progresser avec la traduction automatique, Peter Toma décidait de rester en Allemagne. Il commençait à enseigner la programmation à l’université de Bonn, puis à l’Université de la Sarre. En parallèle, il émulait le fonctionnement de l’ordinateur IBM 360 sur le modèle IBM 7090 pour créer un modèle SYSTRAN embryonnaire. En même temps il s’était inscrit comme étudiant à Bonn où il achevait son doctorat en 1970 avec une thèse sur la traduction automatique.

IBM 360 – Computer History Museum ; Photo : Dave Ross, 2008, CC BY 2.0

Lorsque Heinz Unger, le directeur du département mathématique à l’Université de Bonn, a obtenu les crédits pour l’installation et l’exploitation d’un ordinateur IBM 360 dans son institut, Peter Toma a pu montrer le fonctionnement correct de son système de traduction SYSTRAN. En 1965, la Fondation allemande pour la recherche (DFG: Deutsche Forschungsgesellschaft) avait invité les meilleurs informaticiens et linguistes allemands pour évaluer le projet SYSTRAN. Après une journée de test et de discussions, une bourse de recherche a été accordée à Peter Toma pour parfaire son système.

En 1967, le laboratoire de Rome, le centre de recherche et de développement de la Force aérienne américaine (RADC), lançait un appel d’offre pour la traduction de textes russes en anglais. Le responsable de ce projet était Zbigniew L. Pankowicz (Ziggy), un linguiste polonais et survivant du camp de concentration d’Auschwitz, qui est immigré aux Etat-Unis après la guerre. Il a été admis au temple de la renommé (Hall of Fame) du laboratoire de Rome en 2019. Peter Toma soumettait une offre pour son projet SYSTRAN qui a été retenue par le RADC, parmi des concurrents comme IBM et Thompson Ramo Wooldridge.

Ce succès a incité Peter Toma à créer sa propre société en 1968 pour continuer le développement de SYSTRAN, à La Jolla en Californie, sous le nom de Latsec (Language translation system and electronic communications). D’autres contrats ont été conclus avec des clients américains, par exemple avec la NASA. Avec des hauts et des bas, le projet SYSTRAN a été perfectionné, à Bonn et à La Jolla, jusqu’en 1975 quand Peter Toma a fondé le World Translation Center (WTC) pour gérer les contrats SYSTRAN en dehors des Etats-Unis.

En 1973, le Danemark, l’Irlande et le Royaume-Uni ont adhéré à la Communauté économique européenne. L’introduction de l’anglais comme langue majeure et du danois comme sixième langue officielle posait la Commission Européenne et l’Office des Publications Européennes devant des problèmes monstrueux. Il fallait engager des centaines de traducteurs diplômés additionnels pour gérer le nombre grandissant de documents à publier et à distribuer. C’était le démarrage de l’introduction d’un système de traduction automatique pour les besoins des institutions européennes et le départ pour la mise en service de SYSTRAN au Luxembourg. Il existe deux récits de la manière d’adoption de SYSTRAN. Le premier récit crédite aux institutions européennes le don d’une vue à longue distance en ayant cherché pro-activement un système sur le marché. Le deuxième récit dit que c’était l’initiative de Peter Toma qui cherchait un marché européen pour son produit SYSTRAN. La vérité se trouve probablement au milieu. Il est toutefois établi que Peter Toma présentait en juin 1975 un prototype SYSTRAN anglais-français (développé par sa filiale canadienne WTC-C) à la Commission Européenne à Luxembourg et que celle-ci évaluait un deuxième produit appelé TITUS, conçu par l’Institut Textile de France. Le projet TITUS a été retiré pendant les négociations du fait qu’il ne pouvait pas traduire des textes complets. Comme SYSTRAN pouvait être utilisé sans modification sur un IBM 360, ordinateur que la Commission possédait à cette époque, un premier contrat pour l’utilisation du système SYSTRAN par les institutions européennes a été signé fin 1975 avec WTC. Il portait sur l’adaptation du projet-pilote anglais-français aux besoins de la Commission, et le développement d’un début de système français-anglais. Le chef de projet de la Commission était Loll Rolling, responsable des développements linguistiques et technologiques dans le domaine de l’information à la DG XIII, la direction générale qui gérait également le projet Euronet-Diane à l’époque.

Un des premiers contractants externes de la Commission Européenne pour le projet SYSTRAN était la société Informalux S.A. domiciliée à Rodange. Elle a été constituée en 1977 avec le slogan centre d’énergie informatique. Les actionnaires majoritaires étaient InfoArbed et la Banque Générale, Léonard Siebenaler était le directeur général.

Six traducteurs diplômés des institutions européennes ont été affectés au projet pour assister les informaticiens au développement. Après quelques mois, il ne restait qu’un seul traducteur qui faisait confiance au projet, Ian M. Pigott. Les autres étaient retournés à leurs anciens postes de travail et s’étaient solidarisés avec la majorité des traducteurs et du personnel administratif des institutions européennes qui contestait l’utilité du projet de traduction automatique. Dans la suite Ian M. Pigott a été désigné comme chef de projet SYSTRAN et il contribuait à faire évoluer le système sensiblement. Au début des années 1980 le système permettait de traduire des textes anglais en français et en italien et des textes français en anglais, avec un taux d’erreurs suffisamment bas pour faciliter la tâche des traducteurs humains à produire des traductions avec la qualité voulue. De plus en plus d’employés des institutions européennes commençaient à apprécier cet outil.

Une licence SYSTRAN a été vendu au Japon en 1980, combinée avec la création d’une société locale Systran Corporation. En juin 1982, une société luxembourgeoise Systran International GmbH a été constituée pour commercialiser le système de traduction automatique SYSTRAN. Le registre de commerce et des sociétés luxembourgeois nous renseigne que les 500 parts de la société étaient détenues par le professeur universitaire allemand Helmut Fischer (495 parts) et l’informaticien Cay-Holger Stoll (5 parts), résidant à Gonderange. Ce dernier était membre de l’équipe projet SYSTRAN comme linguiste et figurait comme gérant de la nouvelle société qui a cessé ses activités en 1987.

En 1983, InfoArbed et Informalux ont créé la joint-venture ECAT – European Center for AutomaticTranslation s.à r.l. Chaque actionnaire détenait 2000 parts. En juillet 1984 le capital de cette société a été doublé et les 4000 nouvelles parts ont été souscrites par Systran International GmbH. Après la liquidation de cette société quelques années plus tard, la dénomination sociale de ECAT a été changé en TELECTRONICS s.à r.l. en 1991.

En février 1986, une conférence mondiale SYSTRAN a eu lieu à Luxembourg. Dans l’introduction, Peter Toma racontait pourquoi il avait demandé un faible montant pour la mise à disposition du logiciel SYSTRAN à la Commission Européenne. Il soulignait que son principal objectif était le maintien de la paix et qu’une meilleure communication entre les pays européens, grâce à la traduction automatique, constituait un moyen pour y parvenir. Il annonçait également qu’il avait vendu récemment l’ensemble de ses sociétés et des droits et licences SYSTRAN (à l’exception de la filiale japonaise) à un fabricant de robinets industriels en France, la famille Gachot, qui souhaitait diversifier ses activités. Avec les revenus de cette vente Peter Toma comptait organiser deux projets de taille dans l’intérêt du maintien de la paix. Le premier projet était l’organisation d’un symposium international au sujet de la résolution de conflits prévu le 28 octobre 1986 à l’Université d’Otago en Nouvelle-Zélande. Le deuxième projet était la création de l’université internationale Aorangi privée à Dunedin en Nouvelle-Zélande. Le symposium a effectivement eu lieu, toutefois une année plus tard que révue, du 26.10 au 5.11.1987. Quant à l’université privée, la seule référence que j’ai trouvé est le nom marqué sur le brevet européen accordé à Peter Toma pour son application SYSTRAN. C’est le premier brevet accordé dans le domaine de la traduction automatique. En 1997, on retrouve Peter Toma avec une contribution My First 30 Years with MT où il figure comme président de Voxtran Inc, avec une adresse en Allemagne. Il est décédé en 2010, la même année où la mise hors service de SYSTRAN auprès des institutions européennes a eu lieu.

Il est temps de retourner en Europe. En 1986, le siège sociale de Systran a été transféré à Paris et la gestion de la société mère Systran S.A. a été assurée par Jean Gachot. Son fils Denis Gachot était déménagé en Californie pour diriger les filiales Latsec et WTC à La Jolla. En 1989, Denis Gachot a présenté The SYSTRAN Renaissance avec l’annonce de plusieurs nouveautés, entre autres des versions SYSTRAN pour PC, la location du logiciel SYSTRAN, l’accès à distance par Telenet et même un accès Minitel pour le grand public en France.

Traduction automatique en ligne sur Minitel proposée par Gachot

Malgré ces innovations, la réussite financière n’était pas au rendez-vous pour la famille Gachot. En 1993 les activités SYSTRAN ont été cédées à quelques anciens actionnaires minoritaires, parmi eux Dimitrios Sabatakakis qui dans la suite a dirigé le groupe Systran pendant vingt ans.

En 1996 l’équipe de développement et de maintenance SYSTRAN à Luxembourg, composée de linguistes, traducteurs et informaticiens, était passée de deux personnes à une quarantaine. La Commission Européenne planifiait de confier l’exploitation du système au Centre de traduction des organes de l’Union Européenne (CdT) qui a été établi à Luxembourg en 1994. Le CdT n’est pas attaché à la Direction Générale Traduction de la Commission Européenne, mais il dispose de sa propre personnalité juridique. Dans ce contexte le député européen Ben Fayot avait posé la question écrite E-2286/96 à la Commission au sujet de l’obligation morale d’incorporer l’équipe SYSTRAN dans le CdT. La Commission précisait que le personnel était mis à disposition par des firmes privées depuis vingt ans, sous contrats temporaires renouvelés, et que le recrutement d’agents relevait de la seule compétence du CdT.

En mars 1996, une société TELINGUA s.à r.l. a été constituée par Telindus, probablement dans le contexte du remaniement des contrats par les institutions européennes. En septembre 1997 cette société a été convertie en société anonyme Systran Luxembourg par les actionnaires Systran S.A. France (250 parts), Telindus (175 parts), Norbert von Kunitzki (50 parts) et Piere Musman (25 parts). Le contrat SYSTRAN avec la Commission Européenne a été cédé à Systran Luxembourg.

Au niveau international, le groupe Systran avait réussi à décrocher des contrats auprès de plusieurs clients prestigieux comme la NASA, Ford, Price Waterhouse Coopers, Xerox. En décembre 1997, Digital Equipment Corporation et Systran S.A. avaient lancé le premier service de traduction automatique sur le web, AltaVista Translation Service, au surnom de Babelfish. Les langues française, allemande, italienne, espagnole, portugaise et anglaise ont été supportés. Jusqu’en 2007 le service Google Translate était également basé sur le système SYSTRAN.

Au Luxembourg les sociétés Informalux S.A. et Telectronics s.à r.l. ont fusionné en 2001 la nouvelle entité a été dénommée TELECTRONICS S.A. Elle est restée active pendant presque vingt ans et a été absorbée par Proximus Luxembourg S.A. en 2020.

En 2004 Pierre Musman est sorti du Conseil d’Administration de Systran Luxembourg S.A. et Norbert Kunitzki est décédé en 2005 suite à une chute dans les montagnes. A partir de ce moment Systran Luxembourg a été administré uniquement par Denis Gachot et par Dimitrios Sabatakakis (PDG de Systran S.A France). Guillaume Naigeon de Systran S.A France assurait la fonction de commissaire aux comptes.

En 2013 la société coréenne SLCI a lancé avec succès une offre publique d’achat (OPA) pour acquérir Systran. Avec l’obtention de 85% des actions de Systran par SLCI, l’acquisition a été conclue à Seoul en mai 2014. Les administrateurs français ont quitté la société Systran Luxembourg S.A. et ont été remplacés par les administrateurs coréens Ji Changjin, Kim Dong Pil et Park Ki-Hyun.

Dimitrios Sabatakakis et Park Ki-Hyun à la conférence de presse à Seoul en 2014

Pendant une année Chang-Jin Ji et Guillaume Naigeon assuraient l’intérim de PDG. En juillet 2015, Jean Senelart, un ingénieur et informaticien linguistique de renom, a pris les rênes du groupe Systran. Il avait rejoint Systran en 1999, d’abord comme chef de projet, ensuite comme directeur des équipes R&D, avec lesquelles il avait lancé quatre générations de produits SYSTRAN. En 2008 il est devenu Chief Scientist et en 2014 Global CTO du groupe. Mais le jeu des chaises musicales n’était pas encore fini. En août 2020, la majorité des actions du groupe Systran a été achetée par un consortium d’investisseurs institutionnels coréens: STIC Investments, SoftBank Korea, Korea Investment Partners et Korea Investment Securities. La présidence et direction du groupe ont été confiées en mai 2022 à Vincent Godard. De formation ingénieur, il avait occupé le poste de Directeur Commercial de 2009 à 2013 auprès de Systran, ce qui facilitait sa prise de fonction. Jean Senelart continue de siéger au Conseil d’administration de Systran en tant que conseiller scientifique.

En 2022 Systran Luxembourg S.A. est administrée complètement par Systran S.A. France, le commissaire aux comptes est la société luxembourgeoise F.C.G. S.A. La filiale luxembourgeoise et la maison mère semblent se porter bien. Systran est toujours considéré comme pionnier et leader du marché de la traduction automatique, avec des technologies basées sur l’intelligence artificielle très innovantes.

page d’accueil sur le site web de Systran

Litige Systran – Commission Européenne

Une épisode dans l’histoire farfelue de Systran au Luxembourg s’est déroulée en dehors des activités techniques et commerciales et mérite d’être racontée. Comme les institutions européennes ne pouvaient pas conclure des contrats de longue durée avec des firmes privées pour la mise à disposition de personnel spécialisé en linguistique et en informatique, ces spécialistes ont été transférés tous les quelques années à une autre entreprise qui signait un nouveau contrat. Comme le groupe Systran faisait partie d’une façon ou d’une autre de ces différents contractants, il y avait toujours moyen de régler des problèmes éventuels au niveau des licences SYSTRAN.

Tout changeait lors d’un appel d’offre lancé en octobre 2003 par les institutions européennes sans la prise en compte des intérêts du groupe Systran. L’appel d’offres at été remporté par la société luxembourgeoise Gosselies S.A. qui n’avait aucune expertise en matière de linguistique informatique. La société anonyme Gosselies a été constituée en 1994 et liquidée en 2011. Dans un article du Lëtzebuerger Land du 23.12.2010, la journaliste Sophie Mosca estimait que le fait que le ministre luxembourgeois de l’Économie de l’époque, Henri Grethen, était actionnaire de Gosselies et que son épouse assurait la gestion, avait pesé dans ce choix. Ce contrat a incité la société Systran S.A. France et sa filiale luxembourgeoise à déposer de suite une plainte pour violation des droits d’auteur contre la Commission Européenne. Ce n’est qu’en janvier 2007 que le groupe Systran a réussi à introduire une action en réparation devant la Cour de Justice Européenne. Et il fallait attendre presque 3 ans jusqu’à la réception d’une réponse. Le 16 décembre 2010 le Tribunal de l’union européenne a condamné la Commission à verser au groupe Systran une indemnité forfaitaire de 12 001 000 euros. C’était une première. Le PDG de Systran Dimitrios Sabatakakis s’est félicité et tirait son chapeau à la justice européenne. Mais il s’était réjoui trop tôt. Deux mois plus tard la Commission Européenne a introduit un pourvoi dans ce litige. Et comme les rouages de la justice sont lents, ce n’est que le 18 avril 2013 que la Cours de Justice européenne a annulé son jugement antérieur et qu’elle a renvoyé l’affaire devant les tribunaux nationaux.

Il semble que dans la suite un arrangement à l’amiable a été négocié en 2017 entre les institutions européennes et le groupe Systran et qu’une somme de quelques millions euros a été versée à Systran comme dédommagement. Cette transaction était à l’origine d’un autre procès judiciaire, cette fois entre la société coréenne SLCI et les anciens actionnaires de Systran. Les conditions de l’OPA, finalisée en 2014, stipulaient que SLCI devait reverser aux vendeurs des actions une partie d’une éventuelle indemnisation par la Commission Européenne. Comme SLCI, respectivement ses héritiers, avaient manqué à cette obligation, l’affaire s’est terminée devant les tribunaux. Le complément de prix dû aux anciens actionnaires a été payé en mars 2020.

Cette épisode termine mon récit sur l’histoire de Systran durant un demi-siècle. Dans les prochains chapitres nous allons découvrir les autres projets de traduction automatique qui touchent le Luxembourg et qui ont également une histoire passionnante. Il reste à souligner que même en 2022 Systran continue à traduire bise en Kuss au lieu de Nordwind.

Traduction en temps réel sur la plateforme SYSTRAN Translate en 2022

EUROTRA

Lors de la mise en place de SYSTRAN en 1976, il n’y avait pas seulement de la résistance auprès du personne des services de traduction des institutions européennes, mais également beaucoup de critiques de la part de linguistes dans les universités en Europe qui reprochaient à la Commission Européenne d’acheter un produit américain au lieu de promouvoir le savoir-faire européen. Le directeur général de la DG XIII, Raymond Appleyard, et le directeur responsable pour la gestion de l’information à la DG XIII, Georges J. Anderla, étaient sensibles à ces arguments et proposaient le lancement d’un projet européen de traduction automatique, tout en continuant à supporter la solution pragmatique SYSTRAN. Le projet, appelé EUROTRA, n’a été approuvé qu’en 1982 par le Conseil Européen et par le Parlement Européen et il n’a démarré qu’en 1985. Malgré un investissement de 70 millions euros pendant 10 ans, le système n’est jamais devenu opérationnel. Bryan Oakley a expliqué les raisons de cet échec dans sa contribution To Do the Right Thing for the Wrong Reason; the EUROTRA Experience.

MT@EC

Le nombre de paires de langues supportées par SYSTRAN ne cessait de croître, mais le travail lexicographique sous-jacent rendait difficile l’extension de la couverture aux nouvelles langues résultant des élargissements successifs de l’Union européenne. En décembre 2010 le système SYSTRAN a été arrêté et remplacé en 2013 par MT@EC, un système de traduction automatique basé sur les statistiques et exploitant les énormes corpus bilingues et multilingues des institutions européennes tels qu’Euramis. S’appuyant sur le système à source ouverte Moses, développé à l’Université d’Edimbourg, MT@EC supportait en 2016 plus que 500 paires de langues, avec des degrés divers de fiabilité et de qualité. Mais la durée de vie du projet MT@EC était largement inférieure à celle de SYSTRAN, le système a été rapidement remplacé par eTranslation.

eTranslation

Comme la technologie de l’intelligence artificielle se développait à un rythme stupéfiant, la méthode de traduction automatique fut surpassée par une nouvelle méthode dès 2017. La traduction automatique neuronale était arrivée, rendue possible par les progrès en matière de puissance de calcul faisant sortir l’intelligence artificielle des laboratoires. Cette nouvelle technologie exigeait encore davantage de puissance de calcul, et plus spécifiquement, des processeurs graphiques. Testé depuis 2019, un nouveau service en ligne appelé eTranslation a été ouvert en mars 2020, non seulement pour les institutions européennes, mais également pour les entreprises européennes et pour des professionnels, et ceci à titre gratuit. Markus Foti est le responsable de ce projet.

J’ai testé le service eTranslate avec la traduction française-allemande de la phrase “La bise et le soleil …”. eTranslate propose 3 termes différents pour traduire la bise en fonction du contexte: der Kuss, die Knie et der Bise. Le modèle de traduction utilisé pour eTranslate ne semble donc pas encore être à la hauteur de ses compères Google, Facebook ou IBM. Une copie écran et le texte traduit complet sont affichés ci-après:

Traduction de la fable “La bise et le soleil …” par eTranslation

Der Kuss und die Sonne stritten, und jeder versicherte, er sei der Stärkste, als sie einen Reisenden sahen, der in seinem Mantel vorrückte. Sie waren sich einig, dass derjenige, der es als Erster schafft, dem Reisenden seinen Mantel ausziehen zu lassen, als der Stärkste angesehen wird. So begann der Kuss mit seiner ganzen Kraft zu blasen, aber je mehr sie wehte, desto mehr würde der Reisende seinen Mantel um ihn spannen, und am Ende verzichtete die Knie darauf, ihn zu entfernen. Dann fing die Sonne an zu leuchten und nach einer Weile zog der Reisende, der erwärmte, seinen Mantel aus. So musste der Bise erkennen, dass die Sonne die stärkste von beiden war.

Si vous souhaitez traduire des textes étrangers en luxembourgeois, c’est en vain. La langue luxembourgeosie n’est pas encore supporté. Il faut s’adresser à Google Translate.

Google Translate

Le service de traduction en ligne Google Translate a été lancé en avril 2006. Il était d’abord basé sur la technologie SYSTRAN. En octobre 2007 Google a remplacé SYSTRAN par sa propre technologie de traduction automatique statistique, supportant 25 languages. En janvier 2010 Google a introduit une version mobile pour Android, une année plus tard une application pour iOS.

Une application de réalité virtuelle pour traduire des mots ou textes, photographiés avec un smartphone ou une tablette, appelée Word Lense, a été intégrée dans Google Translate suite à l’acquisition par Google en mai 2014 de la startup américaine Quest Visual qui avait développé ce système.

En février 2016 Google avait ajouté 13 langues additionnelles à son service Google Translate, dont le luxembourgeois, pour supporter alors un total de 103 langues. Au début ce n’était pas parfait, par exemple Lëtzebuerg ass mei Land a été traduit en Irland ist mein Land.

En novembre 2016 Google a introduit la version neuronale Google Neural Machine Translation (GNMT) de son service de traduction automatique pour 40 langues. GNMT fait partie  du projet Google Brain, lancé en 2011 par Jeff Dean et Greg Corrado des laboratoires de recherche Google X et par Andrew Yan-Tak Ng de l’université de Stanford. En août 2017 le nouveau système a été étendu aux autres langues et le support du luxembourgeois a été bien amélioré.

La traduction de la fable “La bise et le soleil avec Google Translate” est sans fautes

Le service Google Translate est gratuit pour des traductions en ligne de textes courts, mais c’est un service payant qui fait partie des produits Google Cloud pour des traductions de taille.

Prix du service Google Translate Basic

Quelques développeurs indépendants de Google publient sur la plateforme Github des logiciels permettant la traduction gratuite de documents volumineux, en contournant les barrières et restrictions intégrées dans les interfaces publics de Google Translate. Deux exemples sont les projets google-translate-php et google-trans-new.

Mon conseil est de ne pas recourir à de telles solutions qui ne sont pas fiables, illégales et qui portent le risque de voir son adresse IP bloquée par Google pour tous ses services proposés, y inclus la recherche sur le web. Il vaut mieux de passer son temps à explorer des services de traduction amusants comme Fabricius, le service en ligne de Google pour déchiffrer des hiéroglyphes. Cette application fait partie de l’espace dédié à l’Égypte ancienne au sein de sa section Google Arts & Culture, dévoilé le 15 juillet 2020 pour célébrer l’anniversaire de la découverte de la Pierre de Rosette.

Yandex Translate

Les internautes en Russie et dans différents autres pays de l’Est préfèrent utiliser Yandex Translate au lieu de Google Translate. Le service est intégré dans le moteur de recherche de même nom créé en 1997 par Arkadi Voloj. Yandex est une socitété russe dont la maison mère est basée à Amsterdam. Yandex Translate utilise un système statistique de traduction automatique par auto-apprentissage. Ce qui surprend c’est que le service supporte la langue luxembourgeoise. Les résultats de la traduction anglais-luxembourgeois de la fable d’Esope, affichés ci-après, montrent que la qualité de la traduction n’est pas très élevée.

Dans les prochains chapitres nous allons découvrir les projets de traduction automatique à source ouverte de Systran (OpenNMT), de Microsoft (MarianNMT, de Facebook (NLLB), d’Amazon (Sockeye) et de Google (T5, mt5) .

OpenNMT

OpenNMT est le projet de traduction automatique à source ouverte le plus ancien. Yoon Kim, membre du groupe NLP de l’université de Harvard, a lancé en juin 2016 le projet seq2seq-attn sur Github qui est à l’origine du projet. Yoon Kim est aujourd’hui maître assistant au MIT. En collaboration avec Systran, un premier modèle OpenNMT a été publié en décembre 2016. L’auteur principal était Guillaume Klein de Systran. Une première version OpenNMT pour PyTorch a été publiée en mars 2017 (OpenNMT-py), en collaboration avec Facebook Research. Une version pour TensorFlow suivait en juin 2017 (OpenNMT-tf). Le projet OpenNMT est actuellement maintenu par Systran et Ubiqus. L’ancien PDG de Systran, Jean Senellart, est un des administrateurs du forum OpenNMT.

Des modèles de traduction pré-entraînés pour OpenNMT sont rares. Sur le site web OpenNMT on trouve seulement deux modèles : un modèle Transformer anglais-allemand et un modèle BiLSTM allemand-anglais. Le premier est disponible sur la plateforme huggingface.co comme espace de démonstration. J’ai essayé de l’évaluer, mais sans succès. Il semble que le fichier de configuration manque, ce qui peut expliquer la traduction farfelue.

Traduction farfelue anglais-allemand avec OpenNMT sur Huggingface

MarianNMT

MarianNMT est un outil neuronal de traduction automatique entièrement programmé en C++. Pour cette raison il est deux fois plus rapide que OpenNMT si on effectue des tests dans les mêmes conditions. Le projet a été développé à l’Université d’Edimbourg et à l’Université Adam Mickiewicz à Poznań en Pologne, en collaboration avec Microsoft, à partir de 2017.

Le chef de projet était Marcin Junczys-Dowmunt, actuellement scientifique NLP principal auprès de Microsoft. Il est né à Bydgoszcz en Pologne, la ville natale de Marian Rejewski, un mathématicien et cryptologue polonais renommé. En hommage à ce scientifique, Marcin Junczys-Dowmunt a utilisé son prénom comme nom de travail du projet et le nom n’a jamais été changé. La technologie Marian est utilisée par Microsoft pour son service de traduction commercial Microsoft-Translator sur la plateforme Azure. A l’exemple de Google, une version légère est intégrée sans le moteur de recherche Bing de Microsoft pour traduire gratuitement des textes courts. Mais la langue luxembourgeoise n’est pas supportée par Microsoft.

prix de Microsoft pour la traduction sur la plateforme Azure

Une multitude de modèles de traduction pour différentes paires de langues a été publiée par l’Université d’Helsinki sous l’initiative de Jörg Tiedemann, professeur des technologies de language au département des humanités numériques (HELDIG). Ces modèles neuronaux sont connus sous les noms de Helsinki-NLP/opus-mt-xx-yy (xx = langue source, yy = langue cible). Ils ont été entraînés avec les données du corpus public ouvert OPUS, respectivement avec les données de la collection Tatoeba. Sur Huggingface 1.466 modèles sont disponibles, parmi eux le modèle opus-mt-fr-de qui est à l’origine du titre de la présente publication.

Présentation des modèles Helsinki-NLP/opus-mt-xx-yy sur Huggingface

Dans la liste des modèles MarianMT entraînés moyennant le corpus Tatoeba luxembourgeois on trouve un modéle anglais-luxembourgeois et un modèle luxembourgeois-anglais. Après conversion en format PyTorch, j’ai téléchargé les fichiers afférents comme bases de données et comme modèles sur la plateforme Huggingface. J’ai programmé en outre une application pour un espace de démonstration. Hélas le corpus Tatoeba luxembourgeois n’a ni la taille ni la qualité pour obtenir des résultats de traduction valables. Dans l’attente de la découverte d’une base de données plus appropriée pour pouvoir entraîner un meilleur modèle de traduction anglais-luxembourgeois, et éventuellement des modèles luxembourgeois avec d’autres langues comme source ou cible, je laisse la présente version en place sur Huggingface comme preuve de concept.

NLLB (No Language Left Behind)

Précédé par son modèle pytorch/translate, Facebook Research a présenté en 2019 son outil de modélisation de séquences fairseq en source ouverte qui permet, entre autres, de faire de la traduction automatique. A l’instar de OpenNMT et de MarianNMT, des modèles de traduction automatique pré-entraînés pour quelques couples de langues ont été mis à la disposition des chercheurs.

En octobre 2021 Facebook Inc., la maison mère des services Facebook, Instagram, WhatsApp et Messenger, a changé son nom en Meta Platforms Inc. et Facebook AI est devenu Meta AI. Récemment, le 6 juillet 2022, Meta AI a annoncé la mise au point du premier modèle d’intelligence artificielle unique qui permet la traduction en 200 langues différentes avec une qualité de pointe. Ce modèle, appelé NLLB-200, fait partie de l’initiative No Language Left Behind de Meta. Une publication détaillée de 190 pages sur le projet est disponible sur arXiv.

Le modèle NLLB-200 est disponible en plusieurs versions, avec des tailles allant de 4,4 GB (600 millionsde paramètres) jusqu’à 404 GB (54,5 milliards de paramètres. Pour tester NLLB, on a plusieurs possibilités :

  • moyennant un notebook sur Google Colab
  • moyennant l’espace NLLB Translatior sur Huggingface, développé par Narrativa
  • moyennant l’API de Narrativa
  • moyennant la librairie Transfomers de Huggingface
  • à partir du code source NLLB sur Github
Traduction en temps réel luxembourgeois – anglais avec NLLB sur Huggingface

Le code Python pour traduire un texte anglais en luxembourgeois avec la librairie Transformers de Huggingface est montré ci-après comme exemple:

from transformers import AutoModelForSeq2SeqLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("facebook/nllb-200-distilled-600M", use_auth_token=False, src_lang="eng_Latn")
model = AutoModelForSeq2SeqLM.from_pretrained("facebook/nllb-200-distilled-600M", use_auth_token=False)

article = "The North Wind and the Sun were disputing which was the stronger, when a traveler came along wrapped in a warm cloak."
inputs = tokenizer(article, return_tensors="pt")

translated_tokens = model.generate(**inputs, forced_bos_token_id=tokenizer.lang_code_to_id["ltz_Latn"], max_length=100)
tokenizer.batch_decode(translated_tokens, skip_special_tokens=True)[0]
Exécution du code Python pour la traduction anglais – luxembourgeois. Cliquez pour agrandir l’image.

Amazon Translate et Sockeye

Le service de traduction automatique commercial de Amazon repose également sur un projet à source ouverte, appelé Sockeye, disponible sur Github. Les origines du projet remontent à 2017; plus que 70 versions ont été publiées depuis, la version la plus récente ( 3.1.14.) date du 5 mai 2022. Si on passe le test de La bise et le soleil se disputaient … au traducteur Amazon Translate, on s’étonne que la traduction allemande Der Nordwind und die Sonne stritten sich … est correcte. Mais à la deuxième vue on découvre que dans les autres phrases la bise devient der Kuss comme dans la majorité des autres systèmes de traduction.

Traduction en temps réel français – allemand avec Amazon Translate

En été 2022 la langue luxembourgeoise n’était pas encore supportée par Amazon Translate.

Google T5 et mt5

Les premiers modèles neuronaux entraînés pour la traduction automatique étaient basés sur une architecture de réseau de neurones récurrents. Tout a changé en juin 2017 lorsque Google a présenté une nouvelle architecture de réseau neuronal, appelée Transformeur, dans sa publication Attention is All You Need. D’un jour à l’autre les transformeurs, qui sont conçus pour gérer des données séquentielles telles que le langage naturel, sont devenus le modèle de choix pour la traduction automatique. Cela a conduit au développement de systèmes pré-entraînés tels que BERT (Bidirectional Encoder Representations from Transformers) par Google et GPT-1 (Generative Pre-Training Transformer) par OpenAI en 2018.

Fin 2019 Google a introduit son transformeur T5, pré-entraîné avec un vaste ensemble de données C4 (Colossal Clean Crawled Corpus), publié ensemble avec le modèle. Le modèle T5 supporte 4 langues (anglais, allemand, français et roumain) et existe en cinq versions:

  • T5-Small (60 millions de paramètres)
  • T5-Base (220 millions de paramètres)
  • T5-Large (770 millions de paramètres)
  • T5-3B (3 milliards de paramètres)
  • T5-11B (11 milliards de paramètres)

Même si l’application principale du modèle T5 n’est pas la traduction, celle-ci fonctionne entre les quatre langues supportées. Une démonstration de traduction de textes anglais en allemand ou en français est accessible sur Huggingface.

Traduction en temps réel anglais-allemand et anglais-français avec le modèle T5 sur Huggingface

Un modèle multilingue mt5 supportant 101 langues, dont le luxembourgeois, a été présenté par Goggle une année après le modèle T5, en octobre 2020. Comme le modèle mt5 nécessite un réglage fin (finetuning) avant de pouvoir servir pour des applications de traitement du langage, comme la traduction automatique, Shivanand Roy a développé l’outil simpleT5 qui facilite l’entraînement du modèle pour une langue, ou pour un couple de langues déterminées. Un autre chercheur, Thilina Rajapakse, a développé un outil similaire appelé simpletransformers. L’auteur a mis en place un site web dédié pour SimpleTransformers et a publié la contribution How to Train an mT5 Model for Translation With Simple Transformers qui explique comment entraîner le modèle mt5 pour la traduction automatique du paire des langues anglais – cingalais.

Comme le réglage fin des modèles T5 et mt5 nécessitent des puissance de calcul et des tailles de mémoire très élevées, typiquement une TPU (Tensor Processing Unit) comme accélérateur sur Google Colab, je me suis limité à l’entraînement du modéle mt5-small qui a une taille de 1,2 GB. J’ai utilisé le corpus Tatoeba anglais-luxembourgeois pour la formation avecl le script Python affiché ci-après:

import logging
import pandas as pd
from simpletransformers.t5 import T5Model, T5Args

import torch.multiprocessing
torch.multiprocessing.set_sharing_strategy('file_system')

logging.basicConfig(level=logging.INFO)
transformers_logger = logging.getLogger("transformers")
transformers_logger.setLevel(logging.WARNING)

train_df = pd.read_csv("dataset/train.tsv", sep="\t").astype(str)
eval_df = pd.read_csv("dataset/eval.tsv", sep="\t").astype(str)

train_df["prefix"] = ""
eval_df["prefix"] = ""

model_args = T5Args()
model_args.max_seq_length = 72
model_args.train_batch_size = 10
model_args.eval_batch_size = 10
model_args.num_train_epochs = 5
model_args.evaluate_during_training = True
model_args.evaluate_during_training_steps = 30000
model_args.use_multiprocessing = False
model_args.fp16 = False
model_args.save_steps = -1
model_args.save_eval_checkpoints = False
model_args.no_cache = True
model_args.reprocess_input_data = True
model_args.overwrite_output_dir = True
model_args.preprocess_inputs = False
model_args.num_return_sequences = 1
model_args.wandb_project = "MT5 Luxembourgish-English Translation"

model = T5Model("mt5", "google/mt5-small", args=model_args)

# Train the model
model.train_model(train_df, eval_data=eval_df)

Le graphique enregistré sur la plateforme Weights & Biases qui suit montre l’évolution des scalaires pendant l’entraînement dont l’objectif principal est de minimiser les pertes.

On constate que le coefficient de perte train est au début en baisse pour ensuite inverser sa pente, tandis que le coefficient de perte eval augmente continuellement, ce qui signifie qu’il y a un overfitting du modèle du fait que la taille du fichier d’entraînement est trop petit. Cela se confirme si on examine les résultats de la traduction dans mon espace de démonstration sur Huggingface. J’ai programmé une application commune pour comparer les résultats de la traduction anglais-luxembourgeois et vice-versa avec les trois modèles NLLB, MarianNMT et T5/mt5.

En entrant les mêmes textes dans l’application Goggle Translate, on se rend compte de la performance supérieure de ce modèle dont le code est fermé et propriétaire.

Métriques

Dans les chapitres précédents nous avons procédé à une évaluation subjective de la qualité de traduction des différents modèles basés sur l’intelligence artificielle. Il existe toutefois de nombreuses métriques pour procéder à une évaluation objective. Quelques exemples sont relevés ci-après :

  • BLEU (Bilingual Evaluation Understudy)
  • ROUGE (Recall-Oriented Understudy for Gisting Evaluation)
  • METEOR (Metric for Evaluation of Translation with Explicit Ordering)
  • NIST (National Institute of Standards and Technology)
  • LEPOR ((Length Penalty, Precision, n-gram Position difference Penalty and Recall)
  • chrf++ (Character n-gram F-score)

Pour exprimer la qualité d’une traduction automatique, on mesure la différence entre la traduction machine et une, ou plusieurs, traductions de référence créées par l’humain pour une même phrase source. Il faut donc disposer d’un corpus de phrases pour la langue source et pour la langue cible. Facebook a publié récemment sur Github un corpus public de référence appelé Flores-200. Il se compose d’un fichier csv pour chacune des 200 langues supportées par le modèle NLLB. Chaque fichier inclut 998 phrases présentées dans le même ordre, ce qui permet d’automatiser aisément l’évaluation d’un nouveau modèle de traduction machine pour un couple de langues déterminées. Les trois premières phrases en anglais et en luxembourgeois du corpus Flores-200 sont affichées ci-après à titre d’exemple.

On Monday, scientists from the Stanford University School of Medicine announced the invention of a new diagnostic tool that can sort cells by type: a tiny printable chip that can be manufactured using standard inkjet printers for possibly about one U.S. cent each.
Lead researchers say this may bring early detection of cancer, tuberculosis, HIV and malaria to patients in low-income countries, where the survival rates for illnesses such as breast cancer can be half those of richer countries.
The JAS 39C Gripen crashed onto a runway at around 9:30 am local time (0230 UTC) and exploded, closing the airport to commercial flights.
……………..
E Méindeg hu Wëssenschaftler vun der Stanford University School of Medicine d’Erfindung vun engem neien Diagnosgeschier ugekënnegt, dat Zellen no Typ sortéiere kann: e klengen dréckbaren Chip, dee mat Hëllef vun engem Standardtëntestraldrécker fir méiglecherweis ongeféier een US-Cent d’Stéck hiergestallt ka ginn.
Féierend Fuerscher soen, datt dëst d’Fréierkennung vu Kriibs, Tuberkulos, HIV a Malaria bei Patienten a Länner mat nidderegem Akommes brénge kéint, wou d’Iwwerliewenstauxe bei Krankheeten ewéi Broschtkriibs hallef esou héich kënne sinn ewéi a méi räiche Länner.
D’JAS 39C Gripen ass géint 9.30 Auer Lokalzäit (0230 UTC) op eng Rullbunn gestierzt an explodéiert, wouduerch de Flughafe fir kommerziell Flich gespaart gouf.
……………..
Trois premières phrases du corpus Flores-200 anglais et luxembourgeois

Après la comparaison des résultats, un score est attribué pour chaque phrase traduite. Puis une moyenne est calculée sur l’ensemble du corpus afin d’estimer la qualité globale du texte traduit. Parmi la multitude des métriques d’évaluation MT, BLEU constitue la métrique la plus populaire et la moins coûteuse. Elle a été développée en 2002 par Kishore Papineni pour IBM. La formule mathématique pour générer les scores se base sur des unigrammes, bigrammes, trigrammes et quadrigammes (n-grammes), mais je vais vous épargner les explications afférentes qui dépassent le cadre de la présente description. Je me limite à présenter quelques résultats représentatifs extraits des métriques pour la traduction automatique des 200 x 200 couples de langues supportés par les modèles NLLB. Les scores afférents sont exprimés avec la métrique chrf++ qui fournit des évaluations plus pertinentes que la métrique BLEU.

Direction TraductionMétrique chrf++
en -> de62,8
en -> fr69,7
en -> lb56
de -> en67,5
de -> fr61,4
de -> lb52
fr -> en68,4
fr -> de56,3
fr -> lb49,6
lb -> en69,6
lb -> de60,1
lb -> fr62,4
lb -> zho12,9
lb -> ja24,6
Métriques mesurées avec corpus Flores pour modèle de traduction automatqiue NLLB

La meilleure qualité a été calculée pour la traduction luxembourgeois – anglais (chrf++ = 69,6), la plus basse pour la traduction luxembourgeois – chinois (chrf++ = 12,9).

Conclusions

J’utilise la traduction automatique depuis plus de 10 ans dans le cadre de mes projets de recherche dans le domaine de l’intelligence artificielle pour lire des informations publiées sur le web dans des langues exotiques, comme le coréen, le chinois, le russe etc. Même si la qualité de la traduction n’est pas parfaite, elle est suffisante pour comprendre l’essentiel du contenu. J’apprécie la traduction de documents étrangers en luxembourgeois sur Google Translate lors de la rédaction d’articles techniques en luxembourgeois que je partage, de temps en temps, sur les réseaux sociaux. Le support de la langue luxembourgeoise dans les modèles de traduction machine à source ouverte récents, en combinaison avec la mise à disposition d’outils de programmation libres sur les plate-formes Github et Huggingface, facilitera le fin réglage des modèles de traduction luxembourgeois pour des domaines spécifiques, par exemple pour la biologie, la médecine, les finances etc. Si on passe en revue l’histoire de la traduction automatique, on constate une évolution exponentielle. Il y a eu plus d’innovations et de changements au courant des deux dernières années que pendant la période de 50 ans (de 1970 à 2019) précédente.

Bibliographie

Livres

Magazines

Couverture de l’édition 100 du magazine MultiLingual, décembre 2008

Articles sur le web