Des réseaux de neurones à base d’ADN… et d’enzymes !
⏱ 5 minL’informatique n’a pas le monopole du calcul, ni donc des réseaux de neurones artificiels. On sait depuis dix ans réaliser des (petits) réseaux de neurones en faisant appel aux propriétés de l’ADN. Plus récemment sont apparus les “réseaux de neurones enzymatiques”, qui améliorent notamment la réalisation de fonctions non linéaires.
Depuis le perceptron de Frank Rosenblatt en 1958, l’homme imite les neurones que l’évolution a légué au genre Homo, mais aussi à l’escargot, en s’appuyant sur l’électronique et l’informatique. En cours de route, d’autres approches ont été expérimentées, notamment la voie optique, qui semble prometteuse. Une autre direction de recherche consiste à faire appel à des interactions moléculaires. Le “molecular programming” est un thème de recherche depuis un quart de siècle, dont le chapitre le plus prometteur est le “DNA computing”, qui consiste à effectuer des calculs en faisant appel à des brins d’ADN. Et depuis une dizaine d’années, des équipes parviennent à construire des (petits) réseaux de neurones artificiels en s’appuyant sur cette technologie.
C’est en Californie, au Caltech (California Institute of Technology) de Pasadena, en 2011, qu’a été réalisé le premier réseau de neurones artificiel reposant sur l’ADN. Lulu Qian, le premier signataire de cette publication1 historique, a par la suite supervisé des travaux, publiés2 en 2018, ayant permis de réaliser un réseau de neurones de vision artificielle capable de distinguer les dix chiffres.
De meilleures fonctions d’activation non linéaires
Mais une autre voie, plus prometteuse, a depuis été explorée, celle des “réseaux de neurones enzymatiques”, faisant appel, comme son nom l’indique, à des enzymes (BTW, nom féminin OU masculin), en plus des brins d’ADN. Anthony Genot est chercheur au Limms (Laboratory for Integrated Micro-Mechatronic Systems), une unité mixte du CNRS et de l’IIS (Institute of Industrial Science) japonais, située à l’université de Tokyo. Il a supervisé des travaux d’une équipe franco-japonaise portant sur ce type de réseaux, qui viennent d’être publiés3 dans la revue Nature. « Les réseaux à ADN classiques ne permettent pas de réaliser efficacement une fonction essentielle dans les réseaux de neurones : la fonction d’activation (step function), explique le chercheur. Ils donnent des résultats intéressants pour des preuves de principe comme la reconnaissance de certaines images de chiffres, mais ne permettent pas de s’attaquer à des problèmes plus généraux, où le rôle de cette fonction non linéaire est plus crucial. »
Les travaux publiés par cette équipe dans Nature portent précisément sur la réalisation de “neurones enzymatiques codés par l’ADN avec des poids et des biais réglables”, incluant une solide fonction non linéaire, permettant de réaliser “des architectures multicouches capables de classer des régions non linéairement séparables”. Yannick Rondelez a cosigné cette publication. Il est directeur de recherche CNRS, responsable de l’équipe SPM (Molecular Programs and Systems) au sein du laboratoire Gulliver de l’ESPCI (École supérieure de physique et de chimie industrielles de la ville de Paris, université PSL). Il a d’ailleurs été lui-même chercheur au Limms à Tokyo, de 2008 à 2016, et a joué un rôle essentiel dans la mise au point de la “boîte à outils” sur laquelle s’appuient les travaux publiés dans Nature. « Pour réaliser un neurone, il faut essentiellement pouvoir effectuer trois opérations, explique-t-il. Il faut tout d’abord multiplier ses entrées (inputs) par les poids. Puis additionner les résultats obtenus. Combinées, ces deux premières opérations constituent ce que l’on appelle un “multiply-accumulate” ou “multiply-add”. Enfin, il faut pouvoir appliquer au résultat de cette addition ce que l’on appelle une fonction d’activation, qui est en général une fonction non linéaire. Ce qui permet d’obtenir une réponse du neurone en “tout ou rien” ou quelque chose d’approchant. »
Des brins d’ADN simples et doubles
Comment concrétiser ces trois opérations à l’aide de brins d’ADN et d’enzymes ? Tout se passe en phase liquide, en tout petits volumes. Pour faire leur cuisine, les chercheurs utilisent des casseroles miniatures. Comme les puits de ces plaques qui en comportent 96, d’une contenance individuelle de 300 microlitres. Ou, mieux, ces gouttelettes qui circulent dans les minuscules canaux d’un dispositif microfluidique. Ce qui permet de descendre jusqu’à l’échelle du picolitre (millième de milliardième de litre). Dans leur potion magique, les chercheurs introduisent de minuscules brins d’ADN “monocaténaires”, c’est-à-dire des séquences de nucléobases (ou plus simplement bases) appartenant au fameux alphabet de la génétique : A, C, G, T, pour adénine, cytosine, guanine, thymine. Ces brins monocaténaires s’opposent aux brins bicaténaires, qui associent deux brins complémentaires, chaque adénine étant appariée à une thymine (et vice-versa), et chaque guanine à une cytosine (idem).
Les enzymes impliquées dans le processus entrent dans trois catégories : polymérases, nickases et exonucléases. La polymérase est cette enzyme qui, dans certaines conditions, transforme un brin monocaténaire en bicaténaire. Cela en associant à chacune des bases du brin initial une base complémentaire (adénine face à thymine, guanine face à cytosine, et inversement), ce qui suppose que le milieu en contienne. Par ailleurs, une nickase est une sorte de ciseau. Lorsqu’elle rencontre un certain motif sur l’un des brins d’un double brin, elle coupe et libère la section de ce brin qui lui succède. Le brin double est devenu simple au-delà du motif reconnu et un brin simple complémentaire est libéré dans le milieu. Enfin, une exonucléase dégrade les brins d’ADN en leurs constituants, les bases.
Comment fonctionne concrètement un réseau de neurones reposant sur ces brins d’ADN et ces enzymes ? Nous reviendrons dans le second volet de ce dossier sur cette drôle de mécanique en milieu liquide. Elle implique des petits brins d’ADN représentant les données d’entrée des neurones, leurs “inputs” et leurs états de sortie (“outputs”). Les “poids” appliqués à chaque input sont matérialisés par des brins deux fois plus longs. Et les enzymes font le reste : les inputs sont multipliés par les poids, etc. Nous y reviendrons.
Des réseaux lents, mais non dénués d’atouts
Mais à quoi pourraient bien servir ces réseaux de neurones… humides, et même liquides ? Ils sont à l’heure actuelle très simples – quelques couches de quelques neurones – et très lents (les temps se mesurent en heures). Même en considérant que ces résultats ne sont que des premiers pas, on voit mal cette approche menacer bientôt nos bons vieux réseaux tout en logiciel et silicium. Pourtant, elle ne manque pas d’arguments. « Ces réseaux fonctionnent au prix d’un consommation énergétique infime, assure Anthony Genot. Inférieure de trois ou quatre ordres de grandeurs à celle des réseaux traditionnels. » Mais l’argument le plus fort concerne un champ d’application qui convient logiquement à ces réseaux de neurones d’un nouveau genre : la médecine. « Les données d’entrée de ces réseaux sont des concentrations de petits brins d’ADN, mais nous avons testé avec succès la possibilité d’introduire une donnée sous forme d’ARN, en l’occurrence un microARN humain, indique le chercheur. Par ailleurs, on sait aujourd’hui traduire des concentrations de protéines, d’enzymes et de bien d’autres molécules en concentrations d’ADN. On peut donc imaginer des réseaux de neurones enzymatiques capables de travailler directement ou presque à partir d’échantillons biologiques, et produisant un résultat bien plus sophistiqué qu’une simple réponse sur la “présence ou absence” de tel ou tel biomarqueur. » Bientôt dans toutes les pharmacies, des autotests qui font des multiplications et des additions, avec des réseaux de neurones dedans ?
Pierre Vandeginste
1. Lulu Qian, Erik Winfree & Jehoshua Bruck. Neural network computation with DNA strand displacement cascades. Nature, 2011. doi.org
2. Kevin M. Cherry & Lulu Qian. Scaling up molecular pattern recognition with DNA-based winner-take-all neural networks. Nature, 2018. doi.org
3. Okumura, S., Gines, G., Lobato-Dauzier, N. et al. Nonlinear decision-making with enzymatic neural networks. Nature, 2022. doi.org