La recherche mathématique et la fonction des recherches bio-informatiques

Le développement prodigieux des capacités de calcul des ordinateurs depuis 1945 a créé un nouveau terrain de recherche et d'investigation pour la recherche mathématique. Une des pistes ouverte par cette révolution culturelle a été la question de la « calculabilité » et l'autre l'invention de structures aptes a traiter de façon adéquate les structures biologiques a l'occasion du décodage de la structure du génome (bioinformatique). Ces deux question ont été réunie sous la catégorie des « mathématiques de la complexité ».

 d2c610d2-a6a8-11dd-adba-256d16a54e6b.jpg

La naissance puis le développement de l'informatique a eu un impact fort sur les mathématiques de deux façons, tout d'abord parce que c'est elle qui a créé les bases de l'informatique (qui découlent directement des travaux sur la calculabilité) avant même que les dispositifs n'existent « en dur », et que les capacités de calculs ont conduit à l'apparition de réflexions mathématiques sur la meilleure façon d'organiser un calcul. Mais ce nouveau domaine a été également révolutionné par l'apparition de nouvelles sources de problèmes autour de la génétique a partir de la découverte de l'ADN (découverte publiée en avril 53 et récompensée par le prix nobel en 1962. Traditionnellement, les mathématiques étaient particulièrement utilisée en physique, mais bien moins en biologie. La naissance de la biotechnologie et des perspectives scientifiques et techniques qu’elle ouvre a révolutionné ce secteur, ce qui a été rendu possible par la naissance de nouvelles approches en mathématiques. Mais même des sciences plus traditionnelles comme la météorologie a été révolutionné par l'augmentation colossale des capacités de calculs permis par l'arrivée de l'informatique et des méthodes mathématiques de calculabilité associées L’ensemble de ces nouvelles approches a été regroupé sous le terme générique de « mathématiques de la complexité » En même temps un nouveau domaine, celui de l’approche pluridisciplinaire de la « complexité » (par des disciplines différentes mais complémentaires) ont entraîné le fait que ces nouvelles techniques se sont rapidement diffusées dans l’ensemble des disciplines concernées.

Aux origines de la complexité : de la « crise des fondements » à la théorie de la complexité

L’origine de cette révolution conceptuelle date du début du XX° siécle et de ce qu’on a appelé la « crise des fondements » mathématiques. Un certain nombre de logiciens vont se regrouper afin de doter la mathématique d’une logique rigoureuse, à valeur de théorème.

Vers la fin du XIXe siècle et au début du XXe siècle, la réflexion amenée par plusieurs logiciens a montré que les mathématiques étaient établies sur des bases peu rigoureuses, ce qui a entrainé une crise qu’on a nommée « crise des fondements »

Deux courants de pensée se forment alors dans la communauté de la logique mathématique au début du XXe siècle pour tenter de résoudre les problèmes apparus à cette occasion et de formaliser la logique et la métamathématique : Le courant logiciste menée par Russell et Whitehead (à partir de 1903) et le courant formaliste menée par David Hilbert

Russell et Whitehead vont donner le premier résultat de ces efforts pour rendre rigoureux les bases logiques de la mathématique en publiant Principia Mathematica (1910-1913). Cet ouvrage est réputé comme étant d'un abord particulièrement difficile, y compris pour les mathématiciens. Il est connu par exemple qu'il passe par exemple plus de 200 pages pour démontrer que « un plus un égal deux ». Un autre mathématicien célèbre, David Hilbert, prolongeât cette réflexion et donna à la communauté mathématique des problémes à résoudre pour avancer dans cette vision de la logique, dont certains sont toujours objet de recherche actuelle. David Hilbert rêve d'une logique mathématique totalement formalisée et voit les mathématiques comme le résultat de définitions et d'axiomes qui permettent de les construire de façon quasi-mécanique.

Mais un troisième intervenant va ruiner ces efforts et montrer que ces tentatives sont en fait une impasse. Kurt Gödel avec ses théorèmes d'incomplétude (1931) a démontré que dès qu'une théorie est assez riche pour rendre compte de l'arithmétique, elle ne peut à la fois être complète, décidable et consistante.

Cette découverte signifie la fin de la posture visant a donner à la logique une structure d’ensemble totalement démontrable. Mais une autre révolution conceptuelle va relancer la même formalisation vers de nouveaux horizons avec les travaux de Turing sur la calculabilité. Ces travaux vont entrainer Turing vers la création d’un des premiers « ordinateurs » moderne, le modèle « Collossus » utilisé par la Grande Bretagne pour déchiffrer les messages secrets allemand pendant la seconde guerre mondiale

Ces nouveaux développements vont conduire à la mise au point d’un nouveau dispositif de calcul, l’ordinateur, qui va profondément bouleverser la question des calculs et donc des mathématiques qui lui sont liés. La science des calculs approchés va faire des bons, mais les performances des outils, en constante augmentation ne suffisent pas a eux seuls à expliquer cette révolution. Les mathématiciens vont développer des méthodes pertinentes pour simplifier des calculs pour les rendre possible (avec une durée de calcul acceptable) Ces mathématiques de la complexité vont permettre de rendre certains calculs impossibles par d’autres méthodes envisageable. Un des domaines les plus explorés par les mathématiciens va être intitulé : Théorie de la complexité algorithmique. Un algorithme en informatique est une « recette » pour effectuer un calcul. La théorie de la complexité vise à savoir si la réponse à un problème peut être donnée très efficacement, efficacement ou au contraire être inatteignable en pratique (et en théorie), avec des niveaux intermédiaires de difficulté entre les deux extrêmes ; pour cela, elle se fonde sur une estimation – théorique – des temps de calcul et des besoins en mémoire informatique. Dans le but de mieux comprendre comment les problèmes se placent les uns par rapport aux autres, la théorie de la complexité établit des hiérarchies de difficultés entre les problèmes algorithmiques, dont les niveaux sont appelés des « classes de complexité ». Ces hiérarchies comportent des ramifications, suivant que l'on considère des calculs déterministes – l'état suivant du calcul est « déterminé » par l'état courant – ou non déterministes. On sait par exemple que pour l'instant on ne peut calculer avec certitude la météorologie que sur trois jours à un endroit donné (a partir des multiples données que ce calcul nécessite). Cette limite est corrélée significativement aux capacités de calcul des ordinateurs mais aussi à la façon dont le calcul est effectué

Un exemple d’application : l’optimisation du calcul de pi


46918_837_pi_2500_milliards_de_decimales.jpg

Le Français moyen d'aujourd'hui croit connaître pi comme étant 3,14 ou 22/7. La Bible affirme que pi= 3. A Babylone pi valait 3. Les Égyptiens connaissaient 3,16 (soit (16/9)2), les Grecs 3,1416 (Ptolémée : 3+8/60+30/3600), et au XVI° siècle on avait 11 décimales. En 1706 John Machin avait trouvé une formule astucieuse convergeant assez rapidement et calculé 100 décimales. En 1844 Johann Dahse calcula 205 décimales. En 1853 William Shanks en trouva 707 en les calculant durant vingt ans à la main, dont les 527 premières exactes, ce qui fut montré par l'emploi d'un des premiers ordinateurs en 1945.

Ces calculs à la main prenaient des années. Aujourd'hui avec votre ordinateur personnel et le programme adéquat, vous pouvez en calculer plusieurs milliers en quelques secondes. Mais le calcul de pi est également utilisé par les fabricants d'ordinateur comme un exercice savant permettant de distinguer l'excellence de ses machines et de ses programmeurs. On est ainsi passé à un million de chiffres après la virgule en 1973 (après 23 heures de calcul) puis un milliard de chiffres en 89. Le dernier calcul connu est celui de sur un super ordinateur Hitachi, qui donne 1240000000000 chiffres après la virgule ! Une équipe américaine (du centre de recherche d'IBM) tente désespérément de battre ce record depuis 10 ans, mais elle vient de faire savoir qu'elle vient de trouver une nouvelle méthode permettant d'améliorer les calculs.

Pour se limiter aux méthodes simples (mais qui ne permettent pas ces exploits on peut parler de la formule d'euler qui donne une valeur approché de pi assez précise et convergente.

Formule  d’euler

 pi_eul5.gif

Les mathématiques et la biologie

Un autre domaine dont l’irruption va profondément bouleverser les méthodes mathématique va être la révolution conceptuelle en biologie par l’irruption de la notion de code génétique. Le code génétique donne des renseignements important sur la structure d’une espéce vivante, ses performances, son fonctionnement. Mais celui-ci doit être décodé afin d’etre exploitable. C’est le domaine de la bioinformatique, une technique qui mélange les compétences du biologiste, de l’informaticien et du mathématicien

La bioinformatique est constituée par l'ensemble des concepts et des techniques nécessaires à l'interprétation informatique de l'information biologique. Plusieurs champs d'application ou sous-disciplines de la bioinformatique se sont constitués :

  • La bioinformatique des séquences, qui traite de l'analyse de données issues de l'information génétique contenue dans la séquence de l'ADN ou dans celle des protéines qu'il code. Cette branche s'intéresse en particulier à l'identification des ressemblances entre les séquences, à l'identification des gènes ou de régions biologiquement pertinentes dans l'ADN ou dans les protéines
  • La bioinformatique structurale, traite de la reconstruction, de la prédiction ou de l'analyse de la structure 3D ou du repliement des macromolécules biologiques (protéines, acides nucléiques), au moyen d'outils informatiques.
  • La bioinformatique des réseaux, qui s'intéresse aux interactions entre gènes, protéines, cellules, organismes, en essayant d'analyser et de modéliser les comportements collectifs d'ensembles de briques élémentaires du Vivant.
  • La bioinformatique statistique et la bioinformatique des populations

Les automates cellulaires et le jeu de la vie

l y a près de soixante ans, profitant des techniques développées durant la seconde guerre mondiale, des scientifiques allaient explorer les relations mathématiques qui existent entre les phénomènes observés chez des êtres vivants et des machines. On commence ainsi à examiner les analogies de comportement entre des radars qui suivent une cible et des animaux cherchant à satisfaire leurs besoins. Dans le même temps, on remarque aussi que la dynamique des suites mathématiques simples ressemble à celle des populations biologiques de par leur caractère fluctuant et imprévisible. Des scientifiques de renom tels Alan Turing ou John von Neumann cherchent également les passerelles permettant de décrire les machines artificielles comme des êtres « vivants ». Tous deux en particulier sont fascinés par les capacités d'auto-reproduction et d'auto-réparation des organismes vivants.

 Après des simulations plus ambitieuses qui échouent en raison de la complexité des structures induites, Van Neumann teste la possibilité d’élaborer un univers mathématique composé de grilles et de cellules, et pouvant simuler simplement cet univers a partir de régles simples. .

Grâce à son modèle mathématique qu'il appelle d'abord tesselation automata (automate sur pavage) puis cellular automata (automate cellulaire), von Neumann va montrer que l'on peut construire une machine auto-reproductrice tout en garantissant la non-trivialité de cette auto-reproduction. En effet, il démontre que l'univers des automates cellulaires, aussi simple soit-il, permet de simuler le déroulement de toute machine dont le fonctionnement est spécifié sans ambiguïté. Mais les automates cellulaires vont également servir aux biologistes qui y trouvent de profondes résonnance avec leurs recherches.

Le Jeu de la vie

De nos jours, on ne peut toujours pas admirer la construction de von Neumann. Celle-ci est en effet d'une complexité telle qu'une simulation effective du modèle prendrait trop de temps à être réalisée. A contrario, le modèle dit du Jeu de la vie, proposé par le mathématicien britannique John Horton Conway en 1970 est d'une simplicité désarmante. On considère des cellules réparties sur une grille mais celles-ci ont un état binaire : elles sont soit mortes, soit vivantes.:

 

Le jeu de la vie se présente sous la forme d'un univers à deux dimensions (une grille). chaque cellule occupe une zone délimitée de cet univers (une case).

Cet espace n'est pas continu mais vous pourrez trouver certains automates celullaires dont les bords se touches - l'univers prend alors la forme d'un tore (donuts) - .

En plus de cette univers à 2 dimension, nous ajoutons la dimension du temps. Celui-ci est découpé en pulsations. A chaque pulsation, le programe calcule la nouvelle configuration des cellules dans l'univers.

Chaque cellule est régie par trois règles simples :

  • Une cellule morte entourée d'exactement trois cellules vivantes naît.

  • Une cellule vivante entourée de deux ou trois cellules vivantes reste en vie

  • Dans les autres cas, la cellule meure.

On peut donc considérer qu'une cellule naît de l'entourage de congénères et que sa mort est due à l'isolement.

J.H. CONWAY précise que les règles du jeu de la vie ont été déterminées pour engendrer une grande diversité d'ensembles imprévisibles en évitant une simple croissance mécanique du nombre de cellules dans l'univers.

En partant d'une configuration aléatoire, l'automate cellulaire ci-contre aura tendance à se stabiliser vers trois grands types d'ensembles:

  • Les blocs (structures stables et immobiles)

  • Les oscillateurs (de différentes périodes)

  • Les vaisseaux spatiaux (ensembles de cellules pouvant se "déplacer")

Le jeu de la vie fait donc apparaître des ensembles dynamiques et autonomes. Ces derniers auront de plus leurs propres spécificités !

 Life%20XLscreen.gif

Bien qu'éloigné des mécanismes précis de création et de reproduction des structures vivantes, le "jeu de la vie" continue a être investi par les scientifiques qui pensent ainsi faire émerger les structures simples expliquant l'apparition et l'évolution des processus vivants.

© Karam OUHAROU. The author grants permission to copy, distribute and display this work in unaltered form, with attribution to the author, for noncommercial purposes only. All other rights, including commercial rights, are reserved to the author.

Nous sommes ravis d'améliorer notre service pour vous!

Zadarma FacebookZadarma TwitterZadarma Youtube

© 2014 — 2020 CC-BY-SA | Copyright 2021

Comments

Popular posts