Patrick Dan Fischer

Après des études de mathématiques (université paris 13 et paris 9), Patrick Fischer a effectué sa thèse dans un laboratoire de chimie du Commissariat à l'Energie Atomique. Il a ensuite passé une année à l'université de Tel Aviv en tant que postdoctorant.
Depuis 1996, il occupe un poste de maître de conférences en mathématiques appliquées qui lui a permis de passer une année en tant que chercheur invité à l'université de Washington à Seattle en 2006-07.
Au cours de ses recherches, il s'est intéressé à divers problèmes qui vont de la chimie quantique aux données climatiques, en passant par l'étude des structures 3D des protéines, ou encore l'étude de la turbulence en mécanique des fluides.

Les articles de Patrick Dan Fischer

Quand notre intuition nous trompe, la réponse des mathématiques comportementales.

Quand on doit  prendre une décision importante, on a tendance à vouloir se fier à notre intuition. C'est d'ailleurs très certainement ce qu'il va se passer pour beaucoup d'entre nous au moment de mettre notre bulletin dans l'urne aux prochaines élections...

Mais saviez-vous que, depuis des siècles, des mathématiciens essayent de mettre en équations le comportement humain pour comprendre si les décisions prises en suivant nos intuitions sont vraiment les meilleures ? 

En collaboration avec des psychologues, ils essayent de comprendre l’influence des facteurs émotionnels lors de la prise de décisions qui devraient être rationnelles. 

Un des plus grands acteurs du XXème siècle dans ce domaine est Daniel Kahneman, psychologue israélo-américain de renommée mondiale, généralement considéré comme étant le père de l’économie comportementale. En 2002, il reçoit le prix Nobel d’économie pour ses travaux réalisés en collaboration avec son collègue et ami Amos Tversky, professeur israélien en psychologie mathématique. Ce dernier aurait également été couronné de cette même distinction si celle-ci avait pu être décernée à titre posthume. Kahneman et Tversky, dans les années 1970, ont développé la théorie des perspectives qui a supplanté la théorie de l’utilité espérée et révolutionné le vaste domaine de l’économie comportementale et de la finance comportementale. 

Mais qu’est-ce que l’économie comportementale me direz-vous… ? 

L’économie comportementale peut se résumer comme étant l’étude de l’influence du comportement humain dans l’économie (ou la finance quand on parle de finance comportementale). C’est un vaste domaine qui mélange psychologie, économie et mathématiques. 

D’un point de vue historique, on peut faire remonter les débuts de l’économie comportementale au XVIIème siècle avec le célèbre problème posé par Antoine Gombaud, chevalier de Méré, à Blaise Pascal et Pierre de Fermat. La question posée est en fait un petit problème de probabilité lié au jeu de « pile ou face ». Supposons que deux personnes jouent à « pile ou face », chacune misant la même somme au début pour démarrer la partie. Le vainqueur à ce jeu est le joueur qui obtient 2 fois son choix sur 3 lancers. Supposons maintenant que nous devions interrompre la partie après le 1er lancer de pièce (résultat « face » par exemple). La question est la suivante : comment doit-on partager équitablement la mise initiale sachant que le joueur qui a parié sur « face » (joueur A par exemple) aurait eu clairement plus de chances de l’emporter si le jeu avait continué ? 

Une approche intuitive consisterait à dire que les issues possibles pour le jeu auraient pu être : 1] « face » (le joueur A gagne), 2] « pile – pile » (le joueur B gagne), 3] « pile – face » (le joueur A gagne). Ce raisonnement conduit alors à penser que le joueur A devrait gagner dans 2 cas sur 3, et devrait donc recevoir les 2/3 de la mise initiale. Cependant, d’un point de vue purement mathématique, le cas 1] regroupe en fait 2 évènements équiprobables : « face – face » et « face – pile ». Il faut donc prendre en compte le troisième lancer virtuel pour déterminer les chances respectives de gagner, et dans ce cas, le joueur A l’emporte alors dans 3 cas sur 4, et non plus 2 cas sur 3 comme intuitivement déterminé. Il convient alors pour lui de prétendre aux 3/4 de la mise initiale et non plus seulement aux 2/3. 

Ce premier exemple nous permet de commencer à comprendre la différence entre une solution intuitive et une solution rationnelle. Pendant très longtemps, les scientifiques n’ont pas fait la distinction entre déterminer la solution rationnelle dans une situation où l’on doit faire un choix, et évaluer ce que ferait une personne rationnelle dans cette situation, comme si le choix effectué par une personne rationnelle ne pouvait correspondre qu’à la solution rationnelle déterminée mathématiquement. 

Un autre exemple, connu sous le nom de paradoxe de Saint-Pétersbourg, permet de bien comprendre la différence entre la solution intuitive choisie de façon préférentielle par un être humain, et la solution rationnelle correcte mathématiquement. Ce paradoxe a été proposé au XVIIIème siècle par le mathématicien Nicolas Bernoulli et fut publié par son frère Daniel dans les Transactions de l'Académie de Saint-Petersbourg. 

Deux joueurs A et B décident de jouer à « pile ou face » de la façon suivante : ils lancent une pièce. Si le résultat est « face » alors le joueur B donne 2€ au joueur A. Et le jeu s’arrête là. Si le résultat est « pile » alors ils lancent une deuxième fois la pièce. Si le résultat à ce deuxième lancer est « face » alors le joueur B donne 4€ au joueur A. Et le jeu s’arrête là. Ils recommencent ainsi de suite tant que le résultat de la pièce n’est pas « face » et s’arrêtent dès qu’il est face. Le joueur A a donc une probabilité 1/2 de gagner 2€, 1/4 de gagner 4€, 1/8 de gagner 8€, etc… Se pose alors la question de déterminer la mise initiale du joueur A pour que le jeu soit équitable (aucun des deux joueurs n’est avantagé). Pour cela, il faut que la mise initiale du joueur A soit égale au gain moyen espéré pour ce joueur. Or le gain moyen espéré s’obtient mathématiquement en sommant tous les gains possibles multipliés par la probabilité de les obtenir : 2 x 1/2 + 4 x 1/4 + 8 x 1/8 +… On obtient alors une somme infinie de 1, soit un gain moyen espéré infini !!! 

D’un point de vue mathématique, le joueur A pourrait donc accepter de miser une somme infinie d’argent pour jouer à ce jeu. Pourtant, aucun joueur (même le plus téméraire) n’accepterait de miser une trop grosse somme d’argent (toute sa fortune augmentée de tout ce qu’il pourrait gagner dans sa vie) sur un jeu de hasard. Ce comportement, qui ne s’explique pas « mathématiquement » puisque le jeu serait quand même équitable, est à l’origine de la notion d’aversion au risque. Daniel Bernouilli, pour expliquer ce genre de paradoxe, proposa de définir une valeur « subjective » basée sur l’utilité personnelle d’un objet plutôt que sur son prix « objectif ». On peut penser par exemple à la valeur sentimentale d’un objet qui peut n’avoir aucune relation avec sa valeur réelle objective. Cette approche permet de prendre en compte le caractère subjectif dans une prise de décision. 

Depuis le siècle des Lumières, de nombreux mathématiciens, économistes et psychologues ont tenté de trouver un modèle universel décrivant le comportement humain en essayant de répondre à la question suivante: comment réagit un individu quelconque face à une décision où il doit prendre un risque, que ce risque soit connu ou non ? 

Parmi les scientifiques les plus célèbres qui se sont intéressés à ce problème, nous pouvons citer notamment Von Neumann (mathématicien et physicien), Morgenstern (mathématicien et économiste), Friedman (économiste), Savage (mathématicien). Les théories développées par ces chercheurs reposent essentiellement sur la notion d’utilité espérée. Il s’agit d’une théorie qui repose sur un certain nombre d’axiomes permettant de décrire le comportement d’un individu devant faire un choix dans une situation « risquée » (dans le sens où l’individu risque de perdre une somme d’argent dans un investissement financier, ou lors de l’achat d’un billet de loterie par exemple). Or, un de ces axiomes fut mis expérimentalement en défaut en 1953 par Maurice Allais (économiste), et cet expérience est depuis connue sous le nom de « paradoxe d’Allais ». Ce paradoxe qui repose sur une expérience réelle ne remet pas en cause toute la théorie de l’utilité espérée mais montre que lorsque le risque est élevé l’investisseur accorde plus d’importance à la prime de risque que lorsque le risque est faible. 

C’est dans la lignée du paradoxe d’Allais que Daniel Kahneman et Amos Tversky ont posé les nouvelles bases de l’économie comportementale. Dans leurs travaux, les deux chercheurs israéliens se sont attachés à introduire des résultats d’expériences dans lesquelles on simule des comportements économiques individuels en laboratoire. Ils ont ainsi pu montrer que la théorie de l’utilité espérée ne permet pas de décrire correctement le comportement des individus lors de prises de décisions dans des situations réelles. Ainsi, dans son avant dernier ouvrage, "Thinking fast and slow" (New York: Farrar, Strauss, Giroux. 2011; traduction française: "Système 1 / Système 2 : Les deux vitesses de la pensée", FLAMMARION, 2012), Daniel Kahneman décrit notre mode de pensée comme étant le résultat de la confrontation de deux systèmes: le système 1, rapide, intuitif, émotionnel et qui travaille inconsciemment et le système 2, plus lent, plus réfléchi, plus calculateur et qui relève du conscient. Le système 2 est là pour corriger les erreurs du système 1, mais il est très fréquent que celui-ci ne remplisse pas correctement sa tâche. Comme dans le cas de cette devinette relativement connue: un croissant et un bonbon coûtent 1,20€; le croissant coûte 1€ de plus que le bonbon. Combien coûte le bonbon ? A cette question toute simple, plus de la moitié des personnes interrogées répondra 1€ alors que cette réponse intuitive est fausse (la réponse en fin de l'article). Comme la réponse semble évidente, le système 1 nous donne la réponse intuitive mais le système 2 ne se mobilise pas pour la vérifier. 

Pour les économistes, qui sont plus attachés à l’aspect prédictif d’une théorie plutôt qu’à son aspect descriptif, les travaux de Kahneman et Tversky ont apporté des réponses bien plus fiables à leurs questions. Dans ces travaux, l’utilité n’est pas une variable objective universelle mais une variable propre à chaque individu. D’une certaine façon, cette conception se rapproche plus de la vision de Bernouilli que de celle de Von Neumann et Morgenstern qui se voulait plus universelle. Les conséquences des travaux de Kahneman et Tversky se retrouvent dans de nombreux domaines et pas seulement dans l’économie ou la finance. En effet, la prise de décision lors d’un choix risqué se retrouve également en politique où l'on peut songer par exemple aux décisions prises lors de situations tendues (guerres, prises d’otages, actes de terrorisme, etc), ou même lors de choix de politiques intérieures (problèmes de société, de politique économique, etc). 

Daniel Kahneman en quelques mots: 

Daniel Kahneman nait à Tel Aviv en 1934. Il passe son enfance en France pendant la période de la guerre. Son père, chimiste chez l’Oréal est arrêté lors d’une rafle. Il sera libéré quelques semaines plus tard grâce à l’intervention de son patron, Eugène Schueller. Après la guerre, la famille Kahneman revient en Israël. Daniel Kahneman est diplômé de l'Université Hébraïque de Jérusalem en 1954 où il reçoit une double formation en psychologie et en mathématiques. Après son service militaire dans Tsahal, il continue ses études aux Etats-Unis et il obtient son Doctorat en 1961 à l'Université de Berkeley en Californie. Il revient ensuite en Israël où il obtient son premier poste universitaire à l'Université Hébraïque de Jérusalem. Il obtient successivement différents postes dans les plus prestigieuses universités aux Etats-Unis (Harvard, Princeton) et en Israël. Il est actuellement professeur émérite à l'Université de Princeton. Il est détenteur d'une quinzaine de prix internationaux dont le prix Nobel d'économie ainsi que d'une quinzaine de titres de Docteur Honoris-Causa de grand universités américaines et européennes. 

De la Kabbale à la sécurité informatique : les clefs d'un monde plus sûr

Atbash, De la Kabbale à la sécurité informatique : les clefs d'un monde plus sûr

Internet est un outil formidable !
Nous sommes tous d'accord. Cependant, cette technologie n'aurait pas connu un tel succès si elle ne présentait pas un minimum de sécurité pour les utilisateurs. En effet, personne n'a envie de voir ses codes bancaires interceptés au moment d'un achat en ligne. Ce souci de sécurité numérique pour l'utilisateur d'internet est également la préoccupation de tous les gouvernements, des grandes entreprises, des banques, des militaires, des services de renseignements et d'une manière générale de toute personne qui souhaite transmettre une information à quelqu'un sans que celle-ci ne puisse être interceptée. La solution réside dans l'utilisation de codage/décodage de l'information : la personne qui souhaite envoyer une information de façon sécurisée va utiliser un code pour transformer cette information. Celle-ci devient alors incompréhensible par quiconque ne connaissant pas le code. Puis le destinataire, qui lui connait la méthode de décodage, peut ensuite décoder l'information.

De l'antiquité à nos jours

Chiffre de César

Cette nécessité de vouloir coder l'information ne date évidemment pas d'internet, mais remonte (à notre connaissance) au moins à l'antiquité. Ainsi les premiers systèmes de codage consistant à remplacer une lettre par une autre ont été utilisés par les Egyptiens il y a près de 3500 ans déjà. Jules César communiquait ainsi avec ses généraux et le type de codage utilisé (par décalage) est d'ailleurs connu sous le nom de « chiffre de César ». Ce système consiste à remplacer le A par D, le B par E, le C par F et ainsi de suite. Toutes les civilisations ont développé des méthodes de cryptage. Il est suggéré ainsi dans le Kama Sutra que les amants devraient coder leurs messages pour communiquer entre eux.

Atbash

Les hébreux ont également développé des systèmes de codage basés sur la substitution de lettres. L'un des plus connu est le système Atbash qui aurait été vraisemblablement développé par la secte des Esséniens. Ce groupe vivait caché dans les montagnes de Judée il y a 2100 ans environ et avait besoin de maintenir secrètes leur existence ainsi que la composition du groupe. Ce code consiste à remplacer la première lettre de l'alphabet (aleph) par la dernière (tav), puis la seconde (beth) par l'avant dernière (shin) et ainsi de suite. D'où le nom de la méthode, Atbash. Ce système a ensuite été utilisé par les Templiers, les Cathares et autres sociétés secrètes. Il peut être utilisé avec n'importe quel alphabet.

Gematria

La Gematria, bien connue des rabbins, qui consiste à donner une valeur numérique aux lettres et à réinterpréter ainsi les textes sacrés est également une forme de codage. D'une manière générale, la recherche d'un sens caché dans les textes sacrés a toujours été une préoccupation majeure parmi les érudits juifs à travers les siècles.

L'arbre de vie de la Kabbalah

C'est ainsi qu'est née la Kabbalah, ou que récemment grâce aux progrès de l'informatique des nouveaux codes ont été découverts dans la Bible par le mathématicien israélien Eliyahu Rips. Au cours des siècles, des systèmes de codage plus performants ont été développés et ont permis le développement de nouveaux moyens de communication. Le code Morse a ainsi permis la création et l'utilisation du télégraphe. Plus tard, les militaires américains ont développé pendant la seconde guerre mondiale des codes basés sur le langage des indiens d'Amérique.

RSA, le challenge

Avec le temps, des codes de plus en plus complexes ont été développés. En effet, les codes que nous venons de décrire sont relativement simples et faciles à décrypter. Avec le développement des ordinateurs et des réseaux de télécommunications, des codes toujours plus sophistiqués se sont révélés être nécessaires. Les meilleurs codes actuels sont rendus très difficilement déchiffrables grâce à l'utilisation de nouvelles théories mathématiques regroupées dans un domaine que l'on nomme la cryptographie. Cette discipline a connu un essor fulgurant dans les années 80s avec la publication en 1978 de l'algorithme qui reste aujourd'hui un des plus fiables au monde : RSA, d'après les initiales de ses concepteurs, Ron Rivest, Adi Shamir et Leonard Adleman. L'algorithme RSA a révolutionné le domaine de la sécurité informatique, et Rivest, Shamir et Adleman ont de ce fait obtenu le Prix Turing en 2002, prix le plus prestigieux en informatique souvent décrit comme étant l’équivalent d'un prix Nobel.

En quoi consiste RSA ? Les algorithmes modernes de cryptage repose sur l'utilisation de « clefs ». La clef est le terme utilisé pour désigner la méthode qui permet de coder et décoder l'information. Il existe des algorithmes à clef symétriques qui utilisent la même clef pour coder et décoder, et des algorithmes à clef asymétriques qui utilisent des clefs différentes.

RSA est un algorithme à clef asymétrique. Toute personne souhaitant crypter une information va générer deux clefs. La première clef est dite publique et va lui permettre de coder son message. La deuxième clef, dite privée, est utilisée par la personne qui reçoit le message pour le décoder . Toute la fiabilité d'un algorithme repose donc sur l'utilisation de clefs complexes. En effet, un individu ne possédant pas la clef privée ne doit pas être en mesure de la découvrir à partir du message codé. L'algorithme RSA repose sur la décomposition de nombres semi-premiers pour construire la clef publique et la clef privée. Un nombre semi-premier est un nombre qui peut s'écrire sous la forme d'un produit de 2 nombres premiers (un nombre premier est un entier qui ne peut être divisé que par 1 et par lui même).

Nombres premiers en rouge

Par exemple, le nombre 35 pouvant s'écrire comme 7 fois 5 est donc un nombre semi-premier. Plus le nombre semi-premier est grand, plus il est difficile de trouver sa décomposition. La société RSA Security qui exploite le brevet déposé par Rivest, Shamir et Adleman a ouvert une compétition en 1991 où elle offrait des récompenses à toute personne capable de factoriser des nombres semi-premiers mis au concours. Le premier nombre mis au concours qui a pu être factorisé était composé de 100 chiffres (dénommé RSA-100). Le plus grand nombre semi-premier factorisé dans le cadre de ce concours, RSA-768, contient 232 chiffres en numérotation décimale ou 768 bits en numérotation binaire. Les applications commerciales utilisent en générale des nombres semi-premiers représentés sur 1024 bits, alors que le plus grand nombre semi-premier connu du public et généré par RSA Security est représenté sur 2048 bits soit 617 chiffres décimaux. D'après les spécialistes, cela prendra des années avant qu'une personne externe à RSA puisse factoriser un tel nombre.

Piratage et sécurité nationale

Comme vous pouvez l'imaginer, les travaux d'Adi Shamir ont vite intéressé les services des renseignements et de sécurité de plusieurs pays. Adi Shamir menait alors ses recherches au M.I.T. lorsque RSA fut conçu, et c'est sous un brevet du M.I.T. que l'algorithme a été protégé. C'est ainsi que très vite, la National Security Agency (N.S.A.) décida d'utiliser la technologie mise au point par Shamir pour protéger ses documents et ses transmissions, mais elle n'apprécia pas vraiment le communiqué de presse de RSA Security en 2006 qui dévoilait que la N.S.A. utilisait le cryptage RSA. En effet, il existe une course effrénée entre les acteurs de la sécurité informatique et les pirates qui essayent de pénétrer les systèmes et il n'est donc pas étonnant que la N.S.A. souhaite garder secret les méthodes qu'elle utilise.

Les meilleurs concepteurs de méthodes de protection étant également les meilleurs « pirates », Adi Shamir est également pionnier dans le développement de méthodes pour percer les sécurités informatiques. Il est ainsi à la pointe de la recherche en « cryptanalyse acoustique », discipline qui consiste à analyser les bruits émis par les ordinateurs ; bruits de claviers par exemple ou microprocesseurs lorsque ceux-ci effectuent des opérations de cryptage ou décryptage. Cette discipline a vu le jour dans les années 60-70 et permettait à l'époque de percer les encodages réalisés par des machines dédiées (des ancêtres des ordinateurs mais dont l'activité se limitait au codage et décodage). Les techniques de la cryptanalyse acoustique se sont développées en même temps que le matériel. Ainsi en 2004, Adi Shamir et Eran Tromer de l'université de Tel Aviv ont montré qu'il était possible de mener une attaque contre un système effectuant des opérations de cryptographie en analysant les ultrasons émis par les condensateurs situés sur la carte mère ou même en analysant le bruit des ventilateurs qui refroidissent les ordinateurs.

Les technologies en matière de sécurité informatique mises au point aujourd'hui dans les laboratoires de l'université de Tel Aviv, du Technion ou de l'institut Weizmann se retrouveront dans quelques années dans nos ordinateurs, nos tablettes numériques ou nos smartphones.

« Les systèmes sécurisés n'existent pas et n'existeront jamais. N'essayez pas de concevoir un système de sécurité parfait parce-que vous n'y arriverez pas. » - Adi Shamir

Adi Shamir en quelques mots

Adi Shamir

Adi Shamir a obtenu sa licence de mathématiques à l'université de Tel Aviv en 1973. Il obtient ensuite un master d'informatique en 1975 à l'Institut Weizmann et y soutient sa thèse en 1977. Après une année postdoctorale à l'université de Warwick, il poursuit ses recherches au M.I.T. jusqu'en 1980. Il retourne ensuite à l'Institut Weizmann. En 2006, Adi Shamir est le premier titulaire de la chaire de cryptologie mise en place par l'Ecole Normale Supérieure et France Telecom à Paris.

Adi Shamir a reçu de nombreux prix en plus du prix Turing, dont notamment le prix Erdos de la Société de Mathématiques d'Israël, le prix IEEE Koji Kobayashi, le très prestigieux prix d'Israël ou encore la Médaille d'Or Pie XI de l'Académie Pontificale des Sciences.

Yonina Eldar, cette scientifique israélienne qui va révolutionner le monde du digital

Comment cette scientifique israélienne a-t-elle pu battre le théorème de Nyquist-Shannon ?

Une révolution technologique en marche

Quel est le point commun entre un téléphone, un électrocardiogramme et un appareil photo ? L'information bien sûr!

Le téléphone sert à transmettre de l'information vocale, l'électrocardiogramme représente une information électrique d'origine biologique et l'appareil photo permet de figer une information visuelle (image).

Le stockage, la transmission ou l'analyse des informations sont des problèmes que l'on retrouve dans des milliers d'applications dans la vie de tous les jours et à travers le monde.

Alors que les linguistes parleront plutôt d'information, les scientifiques parleront de signal.

Que ce soient des signaux radar, des musiques, des photos satellites, des images médicales, de la vidéo, des tremblements de terre, des tsunamis, du rayonnement cosmique... les signaux sont partout.

Un des challenges pour les chercheurs travaillant dans le domaine du traitement du signal est de trouver la meilleure méthode pour compresser l'information, c'est-à-dire celle qui permettra de garder le maximum d'information tout en minimisant la taille des fichiers informatiques permettant de les conserver.

L'étape zéro dans cette démarche est ce que l'on appelle l'« échantillonnage ». C'est l'étape qui permet de passer d'un signal continu à un signal discret (non continu).

Prenons par exemple un signal de température atmosphérique. Il varie continûment en fonction du temps et de l'espace, et on ne le verra jamais passer de -20C à +20C en un instant ou en se déplaçant de quelques millimètres.

Echantillonnage

Figure 1: Exemple d'un signal (rouge) sous-échantillonné (points bleus) ne permettant pas de bien le décrire. Le signal bleu peut aussi être reconstruit avec les mêmes points d'échantillonnage.

De ce fait, le problème originel de l'échantillonnage est le suivant : à quelle fréquence dois-je faire des relevés de température pour obtenir une représentation fidèle des variations atmosphériques au cours du temps ? (cf. Figure 1)

On comprend bien que si on fait un relevé annuel tous les 1er janvier, on aura une très mauvaise représentation de notre objet d'observation (on ne pourra pas observer le cycle des saisons, ni les autres cycles de période plus petites).

Si nous effectuons un relevé quotidien tous les jours à midi, on passera à côté des cycles jour/nuit de la Terre.

De même, si on souhaite obtenir une représentation spatiale : des relevés sur une grille de points espacés de plusieurs milliers de kilomètres induisent une perte d'information indispensable à la prédiction météorologique locale, alors qu

Effet de moiré

Figure 2: Effet de moiré lié à la fréquence d'échantillonnage.

'une densité de points trop élevée conduit à une quantité de données trop importante pour être manipulée. La différence de fréquences d'échantillonnage spatial entre deux objets est également à l'origine de l'effet de moiré, bien connu des photographes (cf. Figure 2).

En résumé, plus la fréquence d'échantillonnage sera élevé, et plus le signal discret obtenu sera fidèle au signal continu. Mais plus cette fréquence est élevée et plus on a de données à stocker, transmettre, analyser, etc. Il s'agit donc pour les scientifiques de trouver le meilleur compromis possible, ou plus exactement de répondre à la question suivante : quelle est la fréquence minimale permettant d'obtenir une représentation discrète fidèle au signal continu ?

La réponse à cette question a été donnée sous la forme d'un résultat mathématique connu sous le nom de théorème de Nyquist-Shannon. Ce théorème a été démontré par Claude Shannon en 1949 et découle des travaux de Harry Nyquist publiés en 1928.

Ce résultat stipule que la fréquence d'échantillonnage doit être supérieure ou égale au double de la plus haute fréquence contenue dans le signal continu.
Cette fréquence limite s'appelle la fréquence de Nyquist. Ce résultat est à la base de toutes les technologies de traitement du signal depuis 60 ans.

Cette fréquence est la valeur en dessous de laquelle on ne peut pas échantillonner sans perdre de l'information. Enfin...

C'est ce qui était considéré jusqu'à la publication des travaux du Dr. Yonina Eldar, Professeur dans le Département d'Ingénierie Electrique du Technion Institute of Technology à Haïfa.

Mêlant théories mathématiques et développements technologiques Yonina Eldar et son équipe ont réussi à construire des échantillonneurs (appareils permettant d’échantillonner des signaux continus) travaillant sous la fréquence de Nyquist et sans perte d'information.

Il s'agit d'une telle révolution dans le domaine du traitement du signal que Yonina Eldar a reçu le prestigieux prix Weizmann pour les Sciences Exactes et a été classée parmi les 50 femmes les plus influentes en Israël en 2011.

Alors, comment a-t-elle pu « battre » le théorème de Nyquist-Shannon ?

Tout simplement en exploitant les structures des signaux à échantillonner.

En effet, la détermination de la fréquence de Nyquist ne repose que sur la connaissance du contenu fréquentiel des signaux. Or dans de nombreuses applications modernes, les structures des signaux peuvent être exploitées pour réduire la fréquence d'échantillonnage et obtenir in fine de bonnes représentations.

Le système, baptisé Xampling (pour eXtreme sampling), permet d'échantillonner des signaux analogiques dont la structure sous-jacente peut-être modélisée comme une union de sous-espaces, chacun ayant un contenu fréquentiel différent. Un échantillonnage non régulier (en fait adaptatif en fonction de la structure fréquentielle) permet alors de descendre sous la valeur de la fréquence de Nyquist. La théorie développée, bien que séduisante, a dans un premier temps suscité plus de scepticisme que d'enthousiasme de la part des collègues de Yonina. Elle ne s'est pourtant pas découragée et a construit le premier prototype, sans grande conviction. Les résultats ne se firent pas attendre, et se révélèrent excellents en terme d'efficacité.

La palette des applications possibles est extrêmement large. Nous pouvons citer par exemple l'estimation des retards des échos d'un signal source original : prenons par exemple un appareil GPS embarqué dans un véhicule. En milieu urbain, cet appareil reçoit les signaux de synchronisation venant des satellites, mais il reçoit également des échos qui sont des signaux réfléchis sur le paysage urbain (immeubles, autres véhicules, panneaux, etc).

Ces signaux réfléchis arrivent avec un certain retard car ils n'arrivent pas directement sur l'appareil et les trajets parcourus sont donc plus longs. Xampling permet de gérer tous ces signaux et d'adapter l'échantillonnage en conséquence.

Les applications de Xampling sont également possibles dans le traitement des signaux radar où les temps de parcours sont liés à la position et à la vitesse des cibles. L'imagerie médicale (échographie, IRM, etc), où un signal traversant différentes couches de tissus biologiques est analysé, pourra également bénéficier de la technologie Xampling.

Il ne fait aucun doute que les retombées technologiques puis financières du développement de Xampling seront énormes dans le futur. C'est une véritable révolution dans le domaine de l'échantillonnage !

Pour approfondir, exposé de Yonina Eldar: https://www.youtube.com/watch?v=dRMIsaDMBzc

Prof. Yonina Eldar en quelques mots : Après des études à l'université de Tel Aviv, Yonina s'expatrie pour faire son doctorat dans le très célèbre M.I.T. à Boston. Elle revient ensuite en Israël en 2002 où elle obtient un poste de maître de conférences au Technion. Elle y obtient un poste de professeur associée en 2005 puis un poste de professeur en 2010. Yonina a été professeur invitée à Stanford University de 2009 à 2011, et est toujours chercheur associée au M.I.T. depuis 2002.

http://webee.technion.ac.il/people/YoninaEldar

Patrick Dan Fischer