Mäi Computer schwätzt Lëtzebuergesch

Introduction

En 1960, J.C.R. Licklider a publié son fameux article au sujet de la symbiose homme-machine qui préfigurait l’informatique interactive. Huit ans plus tard, en 1968, il publiait, ensemble avec Robert W. Taylor, la contribution visionnaire The Computer as a Communication Device. Le dessin humoristique qui suit, réalisé à l’époque pour cette publication par Rowland B. Wilson, montre l’ordinateur OLIVER qui annonce à un visiteur que son patron n’est pas au bureau.

Dessin réalisé en 1968 par Roland B. Wilson pour la publication
“The Computer as a Communication Device”

Toutefois il fallait attendre presque 40 ans avant que cette vision soit devenue une réalité. Aujourd’hui la reconnaissance de la parole humaine et la synthèse vocale sont des tâches quotidiennes effectuées par les ordinateurs. La parole devient de plus en plus importante pour la communication Homme-Machine.

Hélas la majorité des humains est encore écartée de la facilité de s’entretenir avec un ordinateur dans sa langue maternelle. Des interfaces vocales performantes sont disponibles depuis quelques années pour les langues les plus parlées : anglais, mandarin, hindi, espagnol, français, allemand, … Plus que la moitié de la population mondiale parle une des autres 7.000 langues qui existent sur la planète. Parmi ce groupe il y a de nombreuses langues à faibles ressources qui ne disposent pas de règles pour l’écriture ou pour la vocalisation.

Bien que le Luxembourgeois a obtenu en 1984 le statut de langue nationale, dispose d’une orthographie, grammaire et phonologie standardisées, d’un commissaire à la langue luxembourgeoise, d’un Conseil permanent de la langue luxembourgeoise, du Zenter fir d’Lëtzebuerger Sprooch, d’un Institut National des Langues, d’une chaire de luxembourgeois à l’Université du Luxembourg, d’un outil informatique Spellchecker et d’un outil de traduction Google, il n’est pas supporté par les interfaces vocales (Alexa, Siri, Cortona, … ) proposées par les géants du web (GAFAM’s) ou par d’autres fournisseurs de systèmes informatiques.

Marylux

Depuis l’antiquité les humains ont été fascinés par les technologies de synthèse vocale. J’ai raconté l’histoire de ces technologies dans mon livre Synthèse vocale mécanique, électrique, électronique et informatique. Un des systèmes TTS (Text-to-Speech) informatiques les plus universels et performants est MaryTTS de l’université de la Sarre, dont le développement remonte à l’année 2000. En 2015, la langue luxembourgeoise a été ajoutée à ce système sous le nom de Marylux. La base de données Marylux comporte un fichier audio enregistré en 2014 par Judith Manzoni sur base de phrases luxembourgeoises (63 minutes), françaises (47 minutes) et allemandes (22 minutes), avec les textes correspondants.

Pour donner une idée sur la qualité de la voix synthétique Marylux je vais présenter l’enregistrement original et la génération synthétique par MaryTTS de la fable d’Esope “Borée et le Soleil” en langue luxembourgeoise. Voici le texte de cette fable :


Den Nordwand an d’Sonn.

An der Zäit hunn sech den Nordwand an d’Sonn gestridden, wie vun hinnen zwee wuel méi staark wier, wéi e Wanderer, deen an ee waarme Mantel agepak war, iwwert de Wee koum. Si goufen sech eens, datt deejéinege fir dee Stäerkste gëlle sollt, deen de Wanderer forcéiere géif, säi Mantel auszedoen. Den Nordwand huet mat aller Force geblosen, awer wat e méi geblosen huet, wat de Wanderer sech méi a säi Mantel agewéckelt huet. Um Enn huet den Nordwand säi Kampf opginn. Dunn huet d’Sonn d’Loft mat hire frëndleche Strale gewiermt, a schonn no kuerzer Zäit huet de Wanderer säi Mantel ausgedoen. Do huet den Nordwand missen zouginn, datt d’Sonn vun hinnen zwee dee Stäerkste wier.

On peut écouter ci-après la parole enregistrée

Enregistrement original de la fable “Nordwand” par Judith Manzoni en 2014

et la parole synthétisée de ce texte avec MaryTTS :

Synthèse vocale de la fable “Nordwand” par le système MaryTTS en 2015
avec la base de données Marylux

Les figures suivantes montrent l’évolution du son dans le temps pour la première phrase de la fable, ainsi que les spectrogrammes correspondants :

Signal analogique : en haut : enregistrement (ground truth) ; en bas : synthèse vocale
Spectrogramme : en haut : enregistrement (ground truth) ; en bas : synthèse vocale

Synthèse vocale avec réseaux neuronaux

La technologie de synthèse Marylux reposait sur un modèle informatique utilisant une méthode de sélection d’unités. Cette technique est devenue obsolète aujourd’hui, suite à la progression fulgurante des technologies d’apprentissage approfondi des machines (deep machine learning) sur base de réseau neuronaux.

Lors de la conférence Interspeech 2017 à Stockholm, Google a présenté un nouveau système de synthèse vocale appelé Tacotron qui repose sur la superposition de deux réseaux neuronaux. Les résultats étaient proches d’une prononciation par des humains. La publication académique afférente porte les noms de 14 auteurs.

Depuis cette date ce modèle a été perfectionné et de nouveaux modèles neuronaux TTS ont été développés : Tacotron2-DCA, Tacotron2-DDC, GlowTTS, Fast-Pitch, Fast-Speech, AlignTTS, Speedy-Speech, VITS, … En 2021 on a pu découvrir tous les quelques jours une nouvelle publication scientifique au sujet de TTS dans l’archive ouverte de prépublications électroniques ArXiv sur Internet.

Marylux-648

Pour entraìner un modèle TTS neuronal avec la base de données Marylux, enregistrée en 2014, j’ai ajusté les fichiers correspondants pour les adopter d’une façon optimale aux besoins de l’apprentissage automatique profond (deep machine learning). J’ai publié la nouvelle base de données publique sous le nom de Marylux-648-TTS-Corpus sur mon dépôt de développement Github. Il s’agit de 648 clips audio luxembourgeois, chacun ayant une durée inférieure à 10 secondes, et des transcriptions y associées. La durée totale est de 57 minutes et 31 secondes. Le lecteur intéressé est invité à consulter les détails sur Github.

Comme les modèles TTS neuronaux sont gourmands en données et entraînés en général avec des enregistrements audio d’une durée de plusieurs dizaines d’heures, j’ai exploré dans une première phase le potentiel et les contraintes de différents modèles TTS face à une base de données dont la durée totale n’atteint même pas une heure.

Avant de présenter les résultats de mes premiers tests, je vais décrire sommairement le cadre de mes expériences.

Modèles TTS neuronaux à source ouverte

Les modèles TTS neuronaux les plus courants peuvent être répartis en quatre grandes familles:

  • Tacotron
  • Glow
  • Forward-Feed
  • Vits

Pour les trois premières familles, la synthèse (inference) de la parole à partir d’un texte se fait en deux étapes. Le texte est d’abord converti en spectrogramme, puis transformé en signal audio avec un vocodeur (vocoder). Les vocodeurs les plus courants sont relevés ci-après:

  • Griffin-Lim
  • WaveNet
  • WaveRNN
  • WaveGrad
  • WaveGAN
  • HifiGAN
  • MelGAN
  • UnivNet

À l’exception du premier vocodeur (Griffin-Lim) qui est algorithmique, les autres vocodeurs sont également entraìnés avec des réseaux neuronaux sur base d’enregistrements audio, de préférence avec la même base de données que celle utilisée pour l’apprentissage du modèle TTS. Hélas les différents vocodeurs ne sont pas tous compatibles avec les différents modèles TTS.

La quatrième famille (VITS) dispose d’une architecture de bout-à-bout (end-to-end) avec vocodeur intégré.

A côté du type de modèle TTS et du type de vocodeur, on fait la distinction entre les caractéristiques suivantes:

  • support d’une seule langue avec une voix (mono-speaker)
  • support d’une seule langue avec plusieurs voix (multi-speaker)
  • support de plusieurs langues avec une voix (multilingual, mono-speaker)
  • support de plusieurs langues avec plusieurs voix (multilingual, multi-speaker)

En ce qui concerne le choix des modèles TTS et des vocodeurs pour mener mes tests, je me suis limité à l’utilisation de projets tiers à source-ouverte (open-source) et avec des licences libres de droits (MIT, CC, …). À côté de projets de développeurs individuels que je vais présenter dans la suite, je me suis notamment basé sur les développements réalisés par les communautés Coqui-TTS et Rhasspy.

Entraînement d’un modèle TTS avec une nouvelle base de données

L’entraînement d’un modèle TTS avec une nouvelle base de données peut se faire à partir de zéro (from scratch) ou à partir d’un modèle existant. Dans le deuxième cas on parle de transfert d’apprentissage (transfer learning) ou de fin réglage (fine tuning).

Les 648 échantillons de la base de données Marylux-648 sont d’abord mélangés (shuffling), puis répartis en 640 exemples pour l’entraînement proprement dit et en 8 exemples pour l’évaluation, effectuée après chaque cycle d’apprentissage. Les six phrases de la fable “De Nordwand an d’Sonn”, qui ne font pas partie du jeu d’apprentissage, sont utilisées pour les tests automatiques réalisés après chaque évaluation.

Pour l’entraînement des modèles j’utilise les infrastructures suivantes:

  • mon ordinateur personnel avec carte graphique NVIDIA RTX 2070, système d’exploitation Linux Ubuntu 20.4 et système de développement Python 3.8
  • mon compte Google-Colab pro dans les nuages, avec CUDA P100 et système de développement Python 3.7

Un cycle d’apprentissage complet est appelé une époque (epoch). Les itérations sont effectuées par lot (batch). La durée d’une itération est fonction de la taille du lot. On a donc intérêt à choisir une taille élevée pour un lot. La différence s’exprime par des durées d’apprentissage de plusieurs heures, jours, semaines ou voire des mois. Hélas la taille des lots est tributaire de la taille de mémoire disponible sur la carte graphique (CUDA).

En général je ne peux pas dépasser une taille de lot supérieure à 10 sur mon ordinateur personnel, sans provoquer une interruption de l’entraînement à cause d’un débordement de la mémoire (memory overflow). Sur Google-Colab je ne peux guère dépasser une valeur de 32.

Pour faciliter la comparaison des performances et qualités des différents modèles TTS, j’ai défini une limite de 1000 époques pour chaque entraînement. Sur mon ordinateur personnel une époque prend donc 64 itérations, sur Google-Colab le nombre se réduit à 20. Le temps d’exécution d’une époque est en moyenne de 95 secondes sur mon ordinateur personnel, ce qui fait environ 26 heures pour l’entraînement complet d’un modèle TTS avec Marylux-648 (64.000 itérations).

Avec un lot de 32, on s’attend à une réduction du temps d’entraînement d’un facteur 3,2, c.à.d. à environ 8 heures. Or à cause du partage des ressources entre plusieurs utilisateurs sur Google-Colab, le gain est plus faible. J’ai observé un temps de calcul moyen de 72 secondes par époque, ce qui donne une durée totale d’entraînement d’environ 20 heures pour 1000 époques (20.000 itérations).

Pour entraîner une base de données de référence comme LJSpeech, VCTK ou Thorsten Voice, qui ont chacune une durée d’enregistrement d’environ 24 heures, le temps de calcul se situe donc entre 3 et 4 semaines, dans les mêmes conditions. On peut réduire le temps d’apprentissage en augmentant la taille des lots à 64, voire à 128 échantillons. Une autre possibilité consiste à utiliser plusieurs cartes graphiques connectées en réseau. Le projet Coqui-TTS supporte une telle interconnexion CUDA. Des témoignages recueillis auprès de développeurs de modèles TTS neuronaux confirment que dans la pratique il faut compter une à deux semaines pour exécuter un entraînement avec une nouvelle base de données, ayant une durée d’enregistrements d’une dizaine d’heures, sur un ensemble ordinateur & CUDA performant.

Marylux-648 Tacotron2-DCA

Pour présenter les résultats obtenus avec l’entraînement de la base de données Marylux-648, il convient de commencer avec le doyen des modèles TTS neuronaux: Tacotron. L’apprentissage profond a été réalisé à partir de zéro. Avant d’entrer dans les détails, nous allons écouter la synthèse de la fable “De Nordwand an d’Sonn”.

Clip audio de la synthèse vocale de la fable “Nordwand” avec le modèle TTS Tacotron2-DCA

Le résultat n’est pas fameux !

La prochaine image montre la séquence temporelle des signaux audio. La figure confirme qu’il y a problème.

Signal audio temporel de la synthèse vocale de la fable “Nordwand” avec le modèle TTS Tacotron2-DCA

En utilisant un vocodeur entraìné au lieu du vocodeur algorithmique Griffin-Lim, on peut améliorer la qualité de la synthèse. La première phrase de la fable Nordwand sert d’échantillon de comparaison. La synthèse avec vocodeur Griffin-Lim est reprise ci-après, suivie par la synthèse avec un vocodeur Hifigan.

Clip audio d’une synthèse TTS avec modèle Tacotron2-DCA et vocodeur Griffin-Lim
Clip audio d’une synthèse TTS avec modèle Tacotron2-DCA et vocodeur Hifigan

Le signal temporel de ces deux clips audio est affiché dans l’image qui suit. Une différence notable entre les deux clips est bien visible, mais la qualité auditive n’est pas encore satisfaisante.

Signaux temporels des clips audio synthétisés avec vocodeur Griffin-Lim (en haut) et Hifigan (en bas)

Le modèle Coqui-TTS Tacotron2-DCA (Dynamic Convolution Attention) constitue une n-ième évolution du premier modèle TTS Tacotron avec une nouvelle architecture qui est cofigurée par un ensemble de plus de 150 hyper-paramètres, en format json. La liste complète de configuration peut être téléchargée sur mon site web, un extrait est présenté dans la figure qui suit.

Présentation de la configuration d’un modèle TTS en format JSON dans le navigateur Firefox

Une possibilité théorique d’améliorer la qualité de synthèse d’un modèle TTS est de mieux régler la configuration, suivant une procédure “essai-erreur (trial and error)” ou sur base d’analyses complexes supplémentaires de la base de données. Avec le grand nombre de paramètres de configuration et les durées d’entraînement dépassant une journée pour effectuer un nouveau essai avec la base de données Marylux-648, ce n’est guère praticable.

Une deuxième possibilité consiste à prolonger l’apprentissage en continuant l’entraînement pendant plusieurs époques supplémentaires. Mais comme dans notre cas le dernier fichier de contrôle (checkpoint) avec le nom “best_model.pth.tar” a été enregistré après xxx itérations (steps), cela ne fait pas de sens de dépasser mon seuil fixé à 1000 époques (64.000 itérations).

La seule solution valable consiste à étudier en détail la progression du livre de bord (logs), enregistré lors de l’entraînement. Le modèle TTS Tacotron2-DCA de coqui.ai, comme d’ailleurs tous les modèles TTS partagés par cette jeune start-up, utilisent le fameux kit de visualisation de TensorFlow, appelé TensorBoard. L’outil permet le suivi et la visualisation de métriques relatifs à l’apprentissage profond (deep machine learning), telles que la perte (loss) et la justesse. TensorBoard peut également afficher des histogrammes de pondérations et de biais, des images, des textes et des données audio, au fur et à mesure de leur évolution.

Les métriques générés lors de l’entraînement du modèle TTS Tacotron2-DCA permettent l’affichage, sous forme graphique, de la progression des résultats relatives aux évaluations (13 scalaires, 4 images, 1 fichier audio), aux époques, respectivement aux tests (16 scalaires, 12 images, 6 fichiers audio) et aux itérations, respectivement à l’entraînement (16 scalaires, 4 images, 1 fichier audio).

Les trois images qui suivent donnent un aperçu sur l’affichage de scalaires, d’images (spectrogrammes et attentions) et de fichiers audio du modèle TTS Tacotron2-DCA, à la fin de l’entraînement avec la base de données Marylux-648.

On peut également consulter les paramètres de configuration en vigueur pour l’entraînement dans le menu “Text”.

Google, le créateur des outils TensorFlow et TensorBoard, offre une plateforme gratuite de partage des résultats d’expériences d’apprentissage profond, sous le nom de TensorBoard.dev. Malheureusement cette plateforme ne permet pas encore le partage des spectrogrammes et des données audio. J’ai toutefois installé mon livre de bord relatif au modèle Tacotron2-DCA sur cette plateforme, ce qui permet à chacun d’analyser l’évolution des scalaires afférents en temps réel.

La prochaine image donne un aperçu sur cet outil TensorBoard.dev.

Sans vouloir entrer dans les détails, l’exploration du livre de bord montre que l’entraînement dun modèle TTS Tacotron2-DCA avec la base de données Marylux-648 est entré dans une phase de sur-apprentissage (overfitting), ce qui ne permet pas de synthétiser correctement des mots ou phrases non vus lors de l’apprentissage. Il faut se rendre à l’évidence que la taille de la base de données Marylux-648 est insuffisante pour entraîner un modèle TTS Tacotron2-DCA.

Il est vrai que Tacotron est connu pour être gourmand en données.

Je vais présenter les résultats obtenus avec d’autres modèles TTS lors de prochaines contributions sur mon présent site web. Mais pour ne pas laisser le lecteur intéressé sur sa faim jusque-là, je vais rapidement introduire le dernier né des familles TTS neuronaux. Il s’appelle VITS.

Marylux-648 VITS

VITS est l’abréviation pour Conditional Variational Autoencoder with Adversarial Learning for End-to-End Text-to-Speech. La prochaine figure montre les signaux temporels des six phrases de la fable “Nordwand”, synthétisées avec le modèle Coqui-TTS VITS. L’allure donne confiance, et l’audition qui suit confirme que la qualité de la synthèse dépasse largement celle du modèle Tacotron2-DCA.

Signaux temporels des six phrases de la fable “Nordwand”, synthétisées avec le modèle TTS VITS
Synthèse vocale des six phrases de la fable “Nordwand”, réalisée avec le modèle TTS VITS

Les deux figures qui suivent montrent un aperçu de l’évolution des métriques lors de l’entraînement de la base de données Marylux-648 avec le modèle TTS VITS. Les graphiques peuvent être visualisés en détail sur TensorBoard.dev.

Mot de la fin

L’apprentissage profond de machines est une technique passionnante. Le comportement des réseaux neuronaux à la base des architectures de systèmes de synthèse de la parole me rappellent parfois les réactions de mes cinq petits-enfants lorsqu’ils faisaient de nouvelles découvertes ou lors d’un nouvel apprentissage. J’ai également constaté que des anciennes techniques réapparaissent dans des nouveaux systèmes. Les spectrogrammes utilisés dans les modèles neuronaux TTS ont déjà été utilisés dans la machine Pattern Playback, développé par Franklin S. Cooper à la fin des années 1940.

Assemblage de photos de la machine Pattern Playback (Laboratoires Haskins)

Liens

Furby 2012 and Furby BOOM

Last update : May 25, 2021

Furbies were the first successful attempt to produce and sell domestically-aimed robots. They were launched in 1998. In April 2012, it was announced that Hasbro will be making a new line of Furbies, which was released in September 2012. The Furby 2012 was first launched in six colors, one month later four other colors were added. A second generation of six Furbies, with styleable tufts of hair on their heads, was relased in December 2012. Compared to the original Furby, the Furby 2012 has more expressive LCD eyes, a wider range of motions, its own iOS and Android app (to feed, care and control the Furby), and the ability to adapt its personality in reaction to user behavior.

Furby 2012

Furby 2012

The Furby 2012 has 6 personalities :

  • Angry Personality : Furby will act grumpy and irritable. Get this by overfeeding.
  • Diva Personality : Furby may turn into this personality if it listens to music for an extended period of time.
  • Valley Girl Personality : Furby resembles a stereotypical teenage girl. Get this by talking for a long time.
  • Cute Personality : Furby will act friendly and sing a lot. Get this by repeatedly petting it.
  • Crazy Personality : Comedic and funny personality. Furby will often laugh like crazy over almost anything. Get by shaking and pulling tail.
  • Default Personality : When you put the batteries in for the  first time. To get it back, hold it upside down, hold the tongue, then hold the tail for a few seconds. Instead of flashing eyes, furby will reboot.

In February 2013 the Furby Party Rockers were launched. They can sing and chat with Furby 2012 and with other Party Rockers, have a new voice and can be used with the app’s for IOS and Android. They only speak Furbish. There are 4 rockers in the 1st generation (Fussby, Loveby, Twittby, Scoffby) and 2 rockers in the 2nd generation (Wittby and Nerdby).

Furby Party Rockers : Fuusby, Twittby, Lovely, Scoffby, Wittby, Nerdby

Furby Party Rockers : Fussby, Twittby, Lovely, Scoffby, Wittby, Nerdby

In August 2013, the new Furby Boom was launched and became the No1 best seller this Christmas 2013. Furby Boom is packed with loads of new features and can be encouraged to lay eggs into your tablet, via the new iOS and Android app, which then grow to become a small virtual Furby (Furbling) that you can then feed, maintain and play games with, like the former Tamagotchis. By caring the Furbling you earn Furbucks to unlock other features and extras. Up to 50 eggs can be collected and will unlock a whole Furby Boom City.

Furby Boom : Blue Waves, Zigzag, Stripes, Polka Dots, Triangles, Peacock

Furby Boom : Blue Waves, Zigzag, Stripes, Polka Dots, Triangles, Peacock

The first species of Furbies (1998 – 2005) communicate with infrared ports. The Furbies 2012 and later use an audio protocol to communicate with other nearby Furbies and with the apps. Igor Afanasyev (iafan) from Moscow, Russia, analyzed and recreated this audio protocol to communicate with Furbies using a computer.

Links

  • https://chapelierfou.org/blog/a-usb-furby.html
  • https://github.com/paullouisageneau/usb_furby

OpenWorm Caenorhabditis elegans

Last update : August 9, 2013

OpenWorm aims to build the first comprehensive computational model of the Caenorhabditis elegans (often called C. elegans, even if this term is a species abbreviation), a free-living, transparent nematode (roundworm), about 1 mm in length, that lives in temperate soil environments. With only a thousand cells, it solves basic problems such as feeding, mate-finding and predator avoidance.

OpenWorm background

Research into the molecular and developmental biology of C. elegans was begun in 1974 by Nobel prize laureate Sydney Brenner and it has since been used extensively as a model organism for development biology. Sydney Brenner founded the Molecular Sciences Institute in Berkeley, California.

Caenorhabditis elegans (Wikipedia)

Caenorhabditis elegans (Wikipedia)

The basic anatomy of C. elegans includes a mouth, pharynx, intestine, gonad, and collagenous cuticle. C. elegans has two sexes: hermaphrodites and males (0.05%).

C. elegans is one of the simplest organisms with a nervous system. In the hermaphrodite, this comprises 302 neurons whose pattern of connectivity (connectome) has been completely mapped and shown to be a small-world network. C. elegans was also the first multicellular organism to have its genome completely sequenced. The genome consists of six chromosomes (named I, II, III, IV, V and X) and a mitochondrial genome. The sequence was first published in 1998 with regular updates, because DNA sequencing is not an error-free process. The latest version released in the WormBase () is WS238.

WormBase is an international consortium of biologists and computer scientists dedicated to providing the research community with accurate, current, accessible information concerning the genetics, genomics and biology of C. elegans and related nematodes. Founded in 2000, the WormBase Consortium is led by Paul Sternberg of CalTech, Paul Kersey of the EBI, Matt Berriman of the Wellcome Trust Sanger Institute, Lincoln Stein of the Ontario Institute for Cancer Research, and John Spieth of the Washington University Genome Sequencing Center. Richard Durbin served as a principal investigator until 2010.

Additional informations about C. elegans are available at the following links :

  • WormBook – a free online compendium of all aspects of C. elegans biology
  • WormAtlas – an online database for behavioral and structural anatomy of C. elegans
  • WormClassroom – an education portal for C. elegans
  • WormImagethousands of unpublished electron micrographs and associated data
  • WormWeb.org – an interactive cell lineage and neural network
  • Cell Exlorer – a 3D visualization tool for the structural anatomy of C. elegans
  • C. elegans movies

OpenWorm open source project

Despite being extremely well studied in biology, the C. elegans still eludes a deep, principled understanding of its biology. The OpenWorm project uses a bottom-up approach, aimed at observing the worm behaviour emerge from a simulation of data derived from scientific experiments carried out over the past decade. To do so, the data available in the scientific community is incorporated into OpenWorm software models.

An open-source simulation platform called Geppetto is used by the OpenWorm Project to run these different models together. An OpenWorm Browser enables ready access to a cell-by-cell 3D representation of the nematode C. elegans in a WebGL enabled browser. The 3d browser was created with the help of the Google Labs Body Browser team. The browser has also been ported to an iOS app to support the project. All the code produced in the OpenWorm project is Open Source and available on GitHub.

The OpenWorm project is realized by a highly motivated group of individuals who believe in Open Science. The OpenWorm website includes a Blog, a Wiki, a FAQ and Donate page, lists about milestones, projects, events, publications, getting started and getting involved resources and more.

The core team members of the OpenWorm project are :

Artificial General Intelligence

Last update : August 7, 2013

Artificial General Intelligence (AGI) is an emerging research field aiming at the building of thinking machines; that is, general-purpose systems with intelligence comparable to that of the human mind (and perhaps ultimately well beyond human general intelligence). While this was the original goal of Artificial Intelligence (AI), the mainstream of AI research has turned toward domain-dependent and problem-specific solutions; therefore it has become necessary to use a new name to indicate research that still pursues the Grand AI Dream. Similar labels for this kind of research include Strong AI, Human-level AI, etc. Other AI researchers prefer the term of Synthetic Intelligence.

The research on AGI is interdisciplinary, focused on whole systems and includes scientific and philosophical investigation and software engineering.

Artificial General Intelligence Research Institute

The term AGI was first used by Mark Avrum Gubrud in November 1997. Fifty years after the launch of the Artificial Intelligence Project in Dartmouth in 1956, Ben Goertzel, Phil Goetz, Pei Wang and Bruce Klein organized the first Artificial General Intelligence Research Institute (AGIRI) workshop in May 2006 to bridge the gap between narrow AI and general-purpose AI. The AGI Research Institute was founded in 2001 with the mission to foster the creation of powerful and ethically positive Artificial General Intelligence. The institute is sponsored by Novamente LLC.

The aspects of Artificial General Intelligence are explained by Pei Wang and Ben Goertzel  in the introduction of their book Advances in Artificial General Intelligence (IOS Press, 2007).

The first conference on Artificial General Intelligence (AGI-08) was organized by AGIRI in March 2008 in Memphis, Tennessee, USA, in association with the Association for the Advancement of Artificial Intelligence (AAAI).

Artificial General Intelligence Society

Ben Goertzel, Pei Wang, Joscha Bach and others founded in September 2011 the Artificial General Intelligence Society (AGI society), a nonprofit organization with the following goals:

  • promote the study of artificial general intelligence (AGI), and the design of AGI systems
  • facilitate co-operation and communication among those interested in the study and pursuit of AGI
  • hold conferences and meetings for the communication of knowledge concerning AGI
  • produce publications regarding AGI research and development
  • publicize and disseminate by other means knowledge and views concerning AGI

The organization of the annual Artificial General Intelligence conference series, which was started in 2008 by AGIRI, has been taken over by the AGI society. The next conference (AGI-2013) will be held in Beijing, China, July 31 – August 3, 2013.

Some additional informations about AGI are available at the following links :

More links are provided in the updated post about Artificial Intelligence.

PAL : personalized assistant that learns

cognitive assistant

DARPA PAL program

The DARPA PAL (the Personalized Assistant that Learns) program focused on improving the way that computers support humans through the use of cognitive systems. These are systems that reason, learn from experience and accept guidance in order to provide effective, personalized assistance. DARPA’s five-year contract (2003 – 2008) brought together over 300 researchers from 25 of the top university and commercial research institutions, with the goal of building a new generation of a cognitive personalized assistant that can reason, learn from experience, be told what to do, explain what they are doing, reflect on their experience, and respond robustly to surprise. Among the contributors were the Carnegie Mellon University, the University of Massachusetts, the University of Rochester, the Institute for Human and Machine Cognition, Oregon State University, the University of Southern California, and Stanford University, as well as from SRI.

SRI International has led the PAL Framework effort to make available many of the successful machine learning and reasoning technologies developed on the PAL program for use by the broader DARPA, research, and military communities. SRI was founded as Stanford Research Institute in 1946 and is a nonprofit research institute headquartered in Menlo Park, California. The institute formally separated from Stanford University in 1970 and is now one of the largest contract research institutes in the world.

One of the components of PAL was CALO (Cognitive Assistant that Learns and Organizes), an artificial intelligence project that attempted to integrate numerous AI technologies into a cognitive personalized assistant. The CALO effort has had many major spin-offs :

  • the Siri intelligent software assistant that is now part of the Apple iOS
  • the news aggregation service Trapit
  • the artificial intelligence-enhanced calendar application for iOS, Tempo AI
  • the travel guide app Desti

Artificial Intelligence

Last update : August 9, 2013

Artificial intelligence (AI) is the intelligence of machines and the branch of computer science which aims to create it.The term was coined by John McCarthy in 1955. The field of AI research was founded at a conference on the campus of Dartmouth College in the summer of 1956. The attendees, including John McCarthy, Marvin Minsky, Allen Newell and Herbert A. Simon, became the leaders of Artificial Intelligence research for many decades.

Good Old-Fashioned Artificial Intelligence (GOFAI)

AI research began in the mid 1950s after the Dartmouth conference. The field AI was founded on the claim that a central property of humans, intelligence, can be so precisely described that it can be simulated by a machine. The first generation of AI researchers were convinced that this sort of AI was possible and that it would exist in just a few decades.

In the early 1970s, it became obvious that researchers had grossly underestimated the difficulty of the project. By the 1990s, AI researchers had gained a reputation for making promises they could not keep. The AI research suffered from longstanding differences of opinion how it should be done and from the application of widely differeing tools.

The field of AI regressed into a multitude of relatively well insulated domains like logics, neural learning, expert systems, chatbots, robotics, semantic web, case based reasoning etc., each with their own goals and methodologies. These subfields, which often failed to communicate with each other, are often referred as applied AI, narrow AI or weak AI.

The old original approach to achieving artificial intelligence is called GOFAI. The term was coined by John Haugeland in his 1986 book Artificial Intelligence: The Very Idea.

Weak Artificial intelligence

After the AI winter, the mainstream of AI research has turned with success toward domain-dependent and problem-specific solutions. These subfields of weak AI have grown up around particular institutions and individual researchers, some of them are listed hereafter:

Peter Norvig, Google’s head of research, and Eric Horvitz, a distinguished scientist at Microsoft Research, are optimistic about the future of machine intelligence. They spoke recently to an audience at the Computer History Museum in Palo Alto, California, about the promise of AI. Afterward, they talked with Technology Review‘s IT editor, Tom Simonite.

A few AI searchers continue to believe that artificial intelligence could match or exceed human intelligence. The term strong AI, now in wide use, was introduced for this category of AI by the philosopher John Searle of the University of California at Berkeley. Among his notable concepts is the Chinese Room, a thought experiment which is an argument against strong AI.

Strong Artificial Intelligence

Strong AI is the intelligence of a machine that could successfully perform any intellectual task that a human being can. Strong AI is associated with traits such as consciousness, sentience, sapience (wisdom) and self-awareness observed in living beings.

There is a wide agreement among AI researchers that strong artificial intelligence is required to do the following :

  • reason, use strategy, solve puzzles and make judgements under uncertainty
  • represent knowledge, including commonsense knowledge
  • plan
  • learn
  • communicate in natural language
  • integrate all these skills towards common goals

Other important capabilities include the ability to sense (see, …) and the ability to act (move and manipulate objects, …) in the observed world.

Some AI researchers adopted the term of Artificial General Intelligence (AGI) to refer to the advanced interdisciplinary research field of strong AI. Other AI researchers prefer the term of Synthetic Intelligence to make a clear distinction with GOFAI.

The following links provide some informations about the history and the concepts of Artificial Intelligence :

A list of organizations and institutions dealing with Artificial Intelligence is shown below :

“Artificial intelligence is no match for human stupidity!”

Global Brain Metaphor

Last update : August 6, 2013

Global Brain

Global Brain Project

The global brain is a metaphor for the worldwide intelligent network formed by all the individuals of this planet, together with the information and communication technologies that connect them into a self-organizing whole. Although the underlying ideas are much older, the term was coined in 1982 by Peter Russell in his book The Global Brain.

The first peer-refereed article on the subject was written by Gottfried Mayer-Kress and Cathleen Barczys in 1995. The first algorithms that could turn the world-wide web into a collectively intelligent network were proposed by Francis Heylighen and Johan Bollen in 1996. Francis Heylighen reviewed the history of the concept and its usage, he distinguished four perspectives  :

  • organicism
  • encyclopedism
  • emergentism
  • evolutionary cybernetics

These perspectives now appear to come together into a single conception.

Global Brain Group and Institute

In 1996, Francis Heylighen and Ben Goertzel founded the Global Brain Group, a discussion forum grouping most of the researchers that had been working on the subject to further investigate this phenomenon. The group organized the first international conference on the topic in 2001. In January 2012, the Global Brain Institute (GBI) was founded at the Vrije Universiteit Brussel to develop a mathematical theory of the brainlike propagation of information across the Internet. The GBI grew out of the Global Brain Group and the Evolution, Complexity and Cognition research group (ECCO).

The following list provides links to further informations about the global brain :

Bio:Fiction

Bio:Fiction

synth-ethic

Bio:Fiction was the world’s first synthetic biology film festival. The first and original festival took place at the Museum of Natural History in Vienna, Austria, from 13-14th of May 2011. Since then Bio:Fiction is officially on tour around the world. The festival provided information and dialogue about synthetic biology in an attractive, factual and entertaining way.

Synthetic biology aims at applying engineering principles to biology. The DNA of an organism is no longer manipulated, but programmed on a computer and built up from scratch.

The Festival marked also the beginning of the synbio art exhibition Synth-ethics in the Museum, that presented biotech art objects related to synthetic biology. The exhibition featured 10 artist and lasted from May 14th to June 26th, 2011.

The exhibition was produced by Biofaction KG and is part of the Cinema and Synthetic Biology project, funded by GEN-AU ELSA.

Strandbeests : Kinetic Sculptures by Theo Jansen

Last update : August 9, 2013

Strandbeests

Strandbeest “Animaris Ordis Parvus” Assembly Kit

Theo Jansen, born 14 March 1948, is a Dutch artist and kinetic sculptor. Since 1990 he builds large works, called strandbeests, which resemble skeletons of animals, that are able to walk using wind power on the beaches of the Netherlands. Not pollen or seeds but plastic yellow tubes are used as the basic material of this new creatures. Eventually he wants to put these animals out in herds on the beaches, so they will live their own lives.

Some beach animals  have a stomach consisting of recycled plastic bottles containing air, that can be pumped up to a high pressure by the wind.  Others are able to detect once they have entered water and walk away from it, and one species will even anchor itself to the earth if it senses a storm approaching.

The artworks of Theo Jansen have been presented on numerous websites, TV shows, videos, books, conferences and exhibitions. The movie Strandbeesten, directed by Alexander Schlichter (2008), was presented at the Bio:Fiction festival in 2011.

An assembly kit of a miniature version of the strandbeests Animaris Ordis Parvus is available at the website of the artist. It is produced by Gakken Education Publishing Co. Ltd. Japan.  After assembling, the mini strandbeest walks on the wind, by hand or by blowing against the propeller. Another strandbeest, the mini Rhinocerus, has been published by the same company in Japan.

MMDAgent toolkit

Last update : August 9, 2013

MMDAgent

MMDAgent

MMDAgent is a toolkit for building voice interaction systems. The toolkit is released for contributing to the popularization of speech technology. Users can design users own dialog scenario, 3D agents, and voices. This software is released under the New and Simplified BSD license. Version 1.3.1 was released on December 25, 2012, and is available at the SourceForge website. The toolkit was created by the Department of Computer Science at the Nagoya Institute of Technology, Japan. The current members of the project team are Keiichi Tokuda, Akinobu Lee and Keiichiro Oura.

MMDAgent  employs MikuMikuDance (MDD) as a foundation for its 3D rendering system, as well as allowing users to maintain a lively conversation with their 3D companion. Hatsune Miku is one of the many models that can be used to hold a conversation with.

MMDAgent speech recognition

The speech recognition module of MMDAgent is based on Julius, the open-source large-vocabulary continuous speech recognition engine. New words to be recognized to MMDAgent can be added by making a user dictionary.

An MMDAgent WordPress Blog with news about the project was launched in August 2012.