L’IA interprète les cris et grognements des porcs pour évaluer leur bien-être dans les élevages
⏱ 5 minLes vocalisations des cochons véhiculent des émotions. En les interprétant à l’aide de solutions relevant de l’intelligence artificielle, une équipe européenne montre qu’il est possible de mettre au point un détecteur de bien-être (et mal-être) animal destiné aux élevages.
Le bien-être animal n’est pas seulement un sujet qui a fait récemment son apparition dans les conversations, les émissions de télévision et les programmes électoraux. C’est depuis bien plus longtemps un thème de recherche pour les institutions dont la vocation est d’améliorer les méthodes et techniques d’élevage. Car non seulement les chercheurs en éthologie et agronomie sont eux aussi des humains empathiques et éthiques, mais de plus ils savent que la souffrance animale n’apporte rien de bon dans un élevage, qualitativement comme quantitativement.
Mais comment évaluer d’une manière fiable le bien-être ou mal-être d’un animal qui ne parle pas ? Une idée a fait son chemin dans la communauté concernée : analyser, interpréter leurs vocalisations, tenter d’y déceler des signaux associés à des émotions, positives ou négatives. Une publication récente1 montre qu’il est possible, à l’aide d’outils empruntés à l’IA, d’interpréter les cris et grognements issus d’un élevage de porcs, en termes qualitatifs, de bien-être ou de mal-être, et même avec plus de précision.
« Cette publication fait la synthèse des recherches effectuées dans le cadre du projet SoundWel », précise Céline Tallet, qui en est l’une des deux coordinatrices et a supervisé ces travaux. Cette chercheuse en éthologie est membre de l’équipe SysPorc de l’unité mixte de recherche Physiologie, Environnement et Génétique pour l’Animal et les Systèmes d’Élevage (UMR PEGASE, Inrae/Institut Agro Rennes-Angers). Le projet SoundWel implique des équipes de l’Inrae pour la France, de l’ETH (Zurich), de l’université de Copenhague, et d’autres encore en Allemagne, Norvège et Tchéquie. « L’objectif de ces travaux est de permettre la conception d’un dispositif d’aide à la décision reposant sur l’analyse de ces vocalisations, destiné aux élevages de porcs, poursuit la chercheuse. Il les aiderait à réduire les situations négatives et favoriser les positives, et pourrait les alerter lorsque surviennent des situations anormales. »
UNE COLLECTION DE CRIS ET GROGNEMENTS
Les sons émis par les porcs sont complexes et variés. On distingue notamment les vocalisations à basse fréquence, qui correspondent à ce que l’on décrit comme des grognements et des aboiements, et les cris, qui se situent à des fréquences bien plus élevées. « À l’oreille, nous sommes capables d’interpréter ces vocalisations avec une certaine fiabilité, comme nous l’avons déjà montré dans une publication2 qui remonte à 2010, indique Céline Tallet. Nous sommes aussi des mammifères et il n’est donc pas étonnant que nous partagions avec nos cousins des points communs dans l’expression de nos émotions. Cela explique que nous soyons capables, dans une certaine mesure, d’identifier à l’oreille des émotions chez un autre mammifère. » Par ailleurs, l’idée d’interpréter les sons émis par les porcs à l’aide d’algorithmes n’est pas neuve, ajoute la chercheuse : « Des travaux ont déjà porté sur la détection et l’interprétation de la toux dans un élevage de porcs afin d’aider l’éleveur à déceler l’apparition d’une maladie, voire à l’identifier et des outils reposant sur ce principe sont maintenant utilisés en élevage »
Pour mener à bien ces recherches, l’équipe devait tout d’abord disposer d’un solide jeu de données. « Nous avons rassemblé 7414 vocalisations issues d’un total de 411 cochons de tous âges, précise Céline Tallet. La plupart des enregistrements proviennent des diverses équipes européennes impliquées dans le projet SoundWel, mais nous avons dû les compléter en procédant à de nouveaux enregistrements, par exemple dans des abattoirs, ou dans des situations positives comme les retrouvailles d’individus séparés, afin d’améliorer la diversité et la représentativité de notre jeu de données. »
L’équipe a voulu interpréter les vocalisations en les classant de deux manières différentes. D’une part en les distinguant qualitativement, en termes de « valence » positive ou négative. Une vocalisation négative correspondant à une situation que l’animal cherche à éviter, une positive à une situation qu’il recherche. Par ailleurs, les chercheurs ont classé les vocalisations en fonction du contexte dans lequel elles ont été enregistrées. Ils ont considéré dix-neuf catégories de contexte, correspondant à des situations jugées positives pour sept d’entre elles et négatives pour les douze autres. Ainsi, des vocalisations enregistrées avant ou après allaitement, lorsque des individus se retrouvent après séparation, courent ensemble ou se blottissent les uns contre les autres ont été classées dans autant de catégories « positives ». À l’inverse, les enregistrements des catégories « négatives » correspondent à des situations d’isolement, de contention physique, de bagarre, de castration, d’attente ou encore de manipulation à l’abattoir.
QUELS PARAMÈTRES POUR CARACTÉRISER LES VOCALISATIONS ?
La première auteure de cette publication est Élodie Briefer, une chercheuse en éthologie d’origine suisse, spécialisée en bioacoustique, qui est l’autre coordinatrice du projet SoundWel. Après une thèse à Paris et deux post-docs à Londres et Zurich, elle est aujourd’hui professeure associée à l’université de Copenhague et responsable du Groupe d’écologie comportementale de son département de biologie. « Nous avons soumis notre jeu de données à deux outils d’analyse, et en testant à chaque fois leur capacité à prédire d’une part la valence (positive/négative) des cris et d’autre part leur appartenance à nos dix-neuf catégories de contextes, explique la chercheuse. »
« Nous avons cherché à caractériser ces sons à l’aide d’un certain nombre de paramètres acoustiques, indique Élodie Briefer. Après de multiples analyses destinées à en déterminer la pertinence, nous en avons finalement retenu quatre, à savoir la durée, le taux de modulation d’amplitude, le centre de gravité spectral et l’entropie de Wiener moyenne (une mesure de la largeur et de l’uniformité du spectre, parfois appelée planéité spectrale ou coefficient de tonalité). Après avoir calculé la valeur de ces quatre paramètres pour chacun de nos enregistrements, nous avons procédé à ce que l’on appelle communément une pDFA (permuted Discriminant Function Analysis), en français une « analyse de fonction discriminante permutée », méthode proposée en 2007 par le biostatisticien Roger Mundry du Max Planck Institute for Evolutionary Anthropology et depuis très utilisée en bioacoustique. » Résultat : le modèle obtenu était capable de prédire la valence des cris avec une précision de 62%, ce qui n’est déjà pas si mal. Mais lorsqu’il s’agissait de déterminer le contexte d’enregistrement des vocalisations, la précision n’était que de 19%. « Et nous n’avons pas obtenu de meilleurs résultats en tentant d’augmenter le nombre de paramètres caractérisant nos enregistrements, précise la chercheuse. »
A LA CLEF : UN APPAREIL POUR VEILLER SUR LE CHEPTEL PORCIN
Par ailleurs, une jeune chercheuse états-unienne, Ciara Sypherd, à l’époque assistante de recherche à l’université de Copenhague et désormais doctorante à l’université de Harvard, a traité le même jeu de données par l’apprentissage profond, en l’occurrence un réseau de neurones convolutifs (CNN) classique, plus précisément un “Residual Neural Network” du type ResNet-50. Au lieu de s’appuyer sur les quatre paramètres utilisés pour la pDFA, elle a entraîné son réseau de neurones avec les spectres normalisés des vocalisations. En quelque sorte des images représentant ces sons. Elle a utilisé 70% du jeu de données pour entraîner le modèle et les 30% restants pour sa validation. Cette approche par l’apprentissage profond s’est révélée bien plus efficace que le pDFA. En effet, les modèles obtenus ont présenté une précision de 92% pour la valence et de 82% en ce qui concerne le contexte.
« Le but ultime de notre projet est de permettre le développement d’un dispositif d’évaluation constante du bien-être des porcs, destiné aux éleveurs, rappelle Céline Tallet. Cet appareil, qui ne nécessiterait qu’une faible puissance de calcul, pourrait être d’un coût très raisonnable. Il serait bien sûr connecté et ses évaluations seraient consultées depuis un simple smartphone, qui pourrait d’ailleurs recevoir des alertes en temps réel lorsque des vocalisations signaleraient une situation alarmante, comme une bagarre ou le fait qu’un porcelet est écrasé par ses congénères. Nous n’avons pas encore atteint cet objectif, mais nous sommes déjà en contact avec plusieurs fabricants. » Le thermomètre de la condition animale dans les élevages de porcs est en vue…
Pierre Vandeginste
1. Élodie Briefer, Ciara Sypherd et al. Classification of pig calls produced from birth to slaughter according to their emotional valence and context of production. Nature Scientific Reports, 2022. doi.org
2. Céline Tallet et al. Human perception of vocalizations of domestic piglets and modulation by experience with domestic pigs (Sus scrofa). Journal of Comparative Psychology, 2010. doi.org
Image en une : © Elodie Briefer