Une révolution technologique en marche
Quel est le point commun entre un téléphone, un électrocardiogramme et un appareil photo ? L'information bien sûr!
Le téléphone sert à transmettre de l'information vocale, l'électrocardiogramme représente une information électrique d'origine biologique et l'appareil photo permet de figer une information visuelle (image).
Le stockage, la transmission ou l'analyse des informations sont des problèmes que l'on retrouve dans des milliers d'applications dans la vie de tous les jours et à travers le monde.
Alors que les linguistes parleront plutôt d'information, les scientifiques parleront de signal.
Que ce soient des signaux radar, des musiques, des photos satellites, des images médicales, de la vidéo, des tremblements de terre, des tsunamis, du rayonnement cosmique... les signaux sont partout.
Un des challenges pour les chercheurs travaillant dans le domaine du traitement du signal est de trouver la meilleure méthode pour compresser l'information, c'est-à-dire celle qui permettra de garder le maximum d'information tout en minimisant la taille des fichiers informatiques permettant de les conserver.
L'étape zéro dans cette démarche est ce que l'on appelle l'« échantillonnage ». C'est l'étape qui permet de passer d'un signal continu à un signal discret (non continu).
Prenons par exemple un signal de température atmosphérique. Il varie continûment en fonction du temps et de l'espace, et on ne le verra jamais passer de -20C à +20C en un instant ou en se déplaçant de quelques millimètres.
De ce fait, le problème originel de l'échantillonnage est le suivant : à quelle fréquence dois-je faire des relevés de température pour obtenir une représentation fidèle des variations atmosphériques au cours du temps ? (cf. Figure 1)
On comprend bien que si on fait un relevé annuel tous les 1er janvier, on aura une très mauvaise représentation de notre objet d'observation (on ne pourra pas observer le cycle des saisons, ni les autres cycles de période plus petites).
Si nous effectuons un relevé quotidien tous les jours à midi, on passera à côté des cycles jour/nuit de la Terre.
De même, si on souhaite obtenir une représentation spatiale : des relevés sur une grille de points espacés de plusieurs milliers de kilomètres induisent une perte d'information indispensable à la prédiction météorologique locale, alors qu
'une densité de points trop élevée conduit à une quantité de données trop importante pour être manipulée. La différence de fréquences d'échantillonnage spatial entre deux objets est également à l'origine de l'effet de moiré, bien connu des photographes (cf. Figure 2).
En résumé, plus la fréquence d'échantillonnage sera élevé, et plus le signal discret obtenu sera fidèle au signal continu. Mais plus cette fréquence est élevée et plus on a de données à stocker, transmettre, analyser, etc. Il s'agit donc pour les scientifiques de trouver le meilleur compromis possible, ou plus exactement de répondre à la question suivante : quelle est la fréquence minimale permettant d'obtenir une représentation discrète fidèle au signal continu ?
La réponse à cette question a été donnée sous la forme d'un résultat mathématique connu sous le nom de théorème de Nyquist-Shannon. Ce théorème a été démontré par Claude Shannon en 1949 et découle des travaux de Harry Nyquist publiés en 1928.
Ce résultat stipule que la fréquence d'échantillonnage doit être supérieure ou égale au double de la plus haute fréquence contenue dans le signal continu.
Cette fréquence limite s'appelle la fréquence de Nyquist. Ce résultat est à la base de toutes les technologies de traitement du signal depuis 60 ans.
Cette fréquence est la valeur en dessous de laquelle on ne peut pas échantillonner sans perdre de l'information. Enfin...
C'est ce qui était considéré jusqu'à la publication des travaux du Dr. Yonina Eldar, Professeur dans le Département d'Ingénierie Electrique du Technion Institute of Technology à Haïfa.
Mêlant théories mathématiques et développements technologiques Yonina Eldar et son équipe ont réussi à construire des échantillonneurs (appareils permettant d’échantillonner des signaux continus) travaillant sous la fréquence de Nyquist et sans perte d'information.
Il s'agit d'une telle révolution dans le domaine du traitement du signal que Yonina Eldar a reçu le prestigieux prix Weizmann pour les Sciences Exactes et a été classée parmi les 50 femmes les plus influentes en Israël en 2011.
Alors, comment a-t-elle pu « battre » le théorème de Nyquist-Shannon ?
Tout simplement en exploitant les structures des signaux à échantillonner.
En effet, la détermination de la fréquence de Nyquist ne repose que sur la connaissance du contenu fréquentiel des signaux. Or dans de nombreuses applications modernes, les structures des signaux peuvent être exploitées pour réduire la fréquence d'échantillonnage et obtenir in fine de bonnes représentations.
Le système, baptisé Xampling (pour eXtreme sampling), permet d'échantillonner des signaux analogiques dont la structure sous-jacente peut-être modélisée comme une union de sous-espaces, chacun ayant un contenu fréquentiel différent. Un échantillonnage non régulier (en fait adaptatif en fonction de la structure fréquentielle) permet alors de descendre sous la valeur de la fréquence de Nyquist. La théorie développée, bien que séduisante, a dans un premier temps suscité plus de scepticisme que d'enthousiasme de la part des collègues de Yonina. Elle ne s'est pourtant pas découragée et a construit le premier prototype, sans grande conviction. Les résultats ne se firent pas attendre, et se révélèrent excellents en terme d'efficacité.
La palette des applications possibles est extrêmement large. Nous pouvons citer par exemple l'estimation des retards des échos d'un signal source original : prenons par exemple un appareil GPS embarqué dans un véhicule. En milieu urbain, cet appareil reçoit les signaux de synchronisation venant des satellites, mais il reçoit également des échos qui sont des signaux réfléchis sur le paysage urbain (immeubles, autres véhicules, panneaux, etc).
Ces signaux réfléchis arrivent avec un certain retard car ils n'arrivent pas directement sur l'appareil et les trajets parcourus sont donc plus longs. Xampling permet de gérer tous ces signaux et d'adapter l'échantillonnage en conséquence.
Les applications de Xampling sont également possibles dans le traitement des signaux radar où les temps de parcours sont liés à la position et à la vitesse des cibles. L'imagerie médicale (échographie, IRM, etc), où un signal traversant différentes couches de tissus biologiques est analysé, pourra également bénéficier de la technologie Xampling.
Il ne fait aucun doute que les retombées technologiques puis financières du développement de Xampling seront énormes dans le futur. C'est une véritable révolution dans le domaine de l'échantillonnage !
Pour approfondir, exposé de Yonina Eldar: https://www.youtube.com/watch?v=dRMIsaDMBzc
Prof. Yonina Eldar en quelques mots : Après des études à l'université de Tel Aviv, Yonina s'expatrie pour faire son doctorat dans le très célèbre M.I.T. à Boston. Elle revient ensuite en Israël en 2002 où elle obtient un poste de maître de conférences au Technion. Elle y obtient un poste de professeur associée en 2005 puis un poste de professeur en 2010. Yonina a été professeur invitée à Stanford University de 2009 à 2011, et est toujours chercheur associée au M.I.T. depuis 2002.
http://webee.technion.ac.il/people/YoninaEldar
Patrick Dan Fischer
Les applications des travaux de Yonina sont très nombreuses et capitales dans plein de domaines.
Yonina est une star mondiale du domaine.
Par son travail, des roquettes du hamas ont certainement été interceptées plus rapidement.