49

Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

  • Upload
    vomien

  • View
    240

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Étude de la Modélisation et Simulation de Neurones Biologiques

Maryvonne Merlet-Billon GB5 BIMB

Septembre 2013

Équipe d'accueil à l'I3S Équipe d'accueil au Laboratoire J.A Dieudonné

Directeur : Gilles Bernot Directeur : Franck Grammont

Tuteur de Stage : Alexandre Muzy Porteur Projet PEPS : Franck Grammont

Laboratoire : I3S CNRS, pôle MDSC, équipe Bio info Laboratoire J.A Dieudonné UMR 7351 CNRS

2000, Route Des Lucioles, Les Algorithmes - Parc Valrose

Bât. Euclide B, BP.121, 06903 Sophia Antipolis 06108 Nice Cedex 02

1

Page 2: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Table des matières

I État de l'art et objectifs 61.1 Le neurone biologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.1 Architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.2 Physiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.1.3 Les assemblées de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.1.4 La notion de petit monde et les neurones . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3 La modélisation des neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.3.1 Modélisation continue de neurone unique . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.3.2 Modélisation continue de réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . 11

1.3.3 Modélisation discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

II Fondements théoriques 122.1 Le projet PEPS : NeuroConf : Formalisation et Simulation pour la Reconstitution de Con�-

gurations Neuronales Biologiquement Plausibles . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.2 Simulation par évènements discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.2.1 Principe de la Simulation par Évènements Discrets . . . . . . . . . . . . . . . . . . . . 14

2.2.2 Cadre de modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.3 Les petits mondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.3.1 Les graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.3.2 La théorie des petits-mondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

III Réalisation du modèle 193.1 Environnement de développement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.2 Modèles de neurones par graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.2.1 Utilisation du Small-world de Watts et Strogatz . . . . . . . . . . . . . . . . . . . . . 20

3.2.2 Recherche de communauté et modularité . . . . . . . . . . . . . . . . . . . . . . . . . 20

3.2.2.1 Valeurs particulières de modularité . . . . . . . . . . . . . . . . . . . . 21

3.2.2.2 EBC : Edge Betweenness Clusterer . . . . . . . . . . . . . . . . . . . . 22

3.2.2.3 PKM : Prior Knowledge and Modularity . . . . . . . . . . . . . . . . 23

3.2.3 Le problème de la modularité dans les petits mondes. . . . . . . . . . . . . . . . . . . 24

3.2.3.1 Analyse de facteurs in�uençant la topologie du Watts-Strogatz . . 26

3.2.3.2 Analyse de la modularité sous di�érentes conditions . . . . . . . . . 28

2

Page 3: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

TABLE DES MATIÈRES TABLE DES MATIÈRES

3.2.4 Les graphes dirigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3.2.4.1 Analyse de facteurs in�uençant la topologie du Watts-Strogatz . . 33

3.2.4.2 Analyse de la modularité sous di�érentes conditions . . . . . . . . . 34

3.3 Modèles de neurones par DEVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3.3.1 Exemple du Processeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3.3.2 Modèle de Neurone : le modèle FeedBack . . . . . . . . . . . . . . . . . . . . . . . . . 38

3.3.3 Études de réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

IV Conclusion et perspectives 42

V Compétences 45

VI Références Bibliographiques 47

3

Page 4: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Page 4

Résumé

La modélisation des neurones biologiques est un domaine d'étude complexe et en pleine expansion. Dans

le cadre d'un Projet Exploratoire Premier Soutien le but de mon stage a consisté à étudier l'hypothèse selon

laquelle les assemblées de neurones représentent des modules physiques. Nous devions pour cela modéliser

des réseaux de neurones à l'aide de la théorie des graphes et étudier la détection d'assemblée de neurones.

Nous nous sommes particulièrement intéressés à la théorie des petits mondes puisqu'il est connu que le réseau

de neurones dans le cerveau possède ce type de caractéristiques. Nous avons étudié la génération de graphes

de type petit monde modulaire en adaptant l'algorithme de Watts et Strogatz. Pour ce faire nous avons

utilisé deux algorithmes nous permettant de partitionner les graphes par optimisation de la modularité. Nous

avons pu déterminer des contraintes de type de graphe initial, de nombre de n÷uds et de distance moyenne

correspondant à des contraintes biologiques. L'étude a été faite sur des graphes dirigés et non dirigés. Nous

avons également étudié la modélisation des neurones par évènements discrets. Nous avons créé un modèle de

simulation de réseau de neurones combinant les contraintes obtenues pour la génération du réseau sous forme

de graphe et la modélisation propre du neurone. Les perspectives du projet consistent particulièrement à

adapter un algorithme de type k-moyen pour la détection d'assemblées de neurones générées arti�ciellement

et à étudier le comportement des neurones au cours de simulations.

Mots-clés : neurone, modélisation, graphe, modularité, petit-monde

4

Page 5: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Page 5

Summary

Biological neuron modeling is a complicated and very spreading �eld of studies. As a part of a "Projet

Exploratoire Premier Soutien", the purpose of my internship was to study the following hypothesis : Neuronal

assemblies are physical modules. For this purpose we had to modeling neuron networks using graph theory

and studying detection of neuronal assemblies. We were particularly interested in the theory of small worlds

since it is known that the network of neurons in the brain has such characteristics. We studied the generation

of modular small-world graphs adapting algorithm of Watts and Strogatz. To do this we used two algorithms

allows us to partition the graph by optimizing modularity. We have determined the type constraints of the

initial graph, the number of nodes and average distance corresponding to biological constraints. The study

was done on directed and undirected graphs. We also studied the modeling of neurons in discrete events.

We created a simulation model of neural network combining the constraints obtained for the generation of

the network as a graph and own modeling neuron. The prospects of the project are to adapt a particular

algorithm k-means for detecting arti�cially generated neuronal assemblies and study the behavior of neurons

during simulations

Key words : neuron, modeling, graph, modularity, small-world

5

Page 6: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Première partie

État de l'art et objectifs

6

Page 7: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 1 Page 7

1.1 Le neurone biologique

1.1.1 Architecture

Les êtres vivants multicellulaires peuvent posséder un type de cellule bien particulier appelé neurone. L'évo-

lution a donné lieu à plusieurs niveau de centralisation des systèmes, comme par exemple le cerveau chez

l'humain ou les ganglions chez le ver Caenorhabdtis elegans. Les neurones participent à l'exécution de cer-

taines fonctions. Nous pouvons retrouver des neurones moteurs, des neurones sensoriels etc...

Cependant les neurones possèdent une architecture similaire (Buhry 2010) (Figure 1). Ils sont composés :

� d'un corps cellulaire, aussi appelé soma

� d'une ou plusieurs dendrites (bien que certains n'en possèdent pas)

� d'un axone

� très majoritairement de plusieurs synapses

Figure 1.1 � Schema d'un neurone (D'après Touzet, 1992) Un neurone se caractérise par les élémentssuivants: Le corps cellulaire ou soma, un axone, des dendrites et des synapses

Chacun de ces éléments joue un rôle précis dans la fonction du neurone. Dendrites et axone permettent

le transfert d'information entre les neurones. Cependant ils se di�érencient notamment sur le plan physique :

l'axone possède un diamètre plus important et peut être recouvert par une gaine de myéline favorisant la

propagation du potentiel d'action. Les dendrites établissent parfois entre elles des connexions via des synapses

et transfèrent des informations vers le soma. Un axone se termine toujours par une ou plusieurs synapses : ce

sont des zones de contacts entre un axone et le neurone cible (ou entre deux dendrites, ou entre un axone et une

dendrite). La distinction est faite entre le neurone post-synaptique (qui reçoit l'information) et le neurone pré-

synaptique (qui envoie l'information). La communication entre les synapses se fait via l'espace intercellulaire

appelé fente synaptique. C'est un courant électrique qui est le support de l'information transmise par les

axones. Le corps cellulaire, nucléé, intègre les signaux reçus d'autres neurones par l'intermédiaire des synapses

et les signaux reçus par les dendrites. Il renvoie l'information traitée via l'axone.

7

Page 8: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 1 Page 8

1.1.2 Physiologie

La physiologie des neurones est un domaine complexe. Elle se base sur deux fonctions : l'une chimique, l'autre

électrique.

La fonction électrique du neurone se caractérise par une répartition di�érente de certains ions au niveau

de la membrane plasmique. Des changements dans cette répartition permettent l'expression d'un signal élec-

trique, le potentiel d'action, qui sera transmit le long de l'axone et le potentiel synaptique qui sera transmit

le long des dendrites. Des transporteurs d'ions et des canaux ioniques sont impliqués dans ces courants élec-

triques : les canaux potassiques, sodiques, calciques et les canaux chlorures.

La fonction chimique du neurone implique la production de neurotransmetteurs tels que la noradrénaline,

les endorphines ou l'acétylcholine. Ces neurotransmetteurs font partie de di�érentes familles de molécules

(catécholamines pour la noradrénaline, opïoides peptidiques pour les endorphines) et n'ont pas tous la même

action : l'acétylcholine va être, entre autre, impliquée dans l'apprentissage et la mémoire et la noradrénaline

dans l'attention et la vigilance par exemple.

Ces fonctions chimiques et électriques sont associées respectivement à des synapses dites chimiques et

électriques. Les synapses électriques permettent un passage direct et passif du courant. Les synapses chimiques

utilisent des canaux activés par des neurotransmetteurs. Ces canaux via leur activation vont permettre de

traduire la �xation des neurotransmetteur en signal électrique. (Purves et al, 2011). Il est important de

noter qu'il existe, en fonction du courant électrique ou des neurotransmetteurs, des synapses excitatrices ou

inhibitrices qui vont avoir un rôle excitateur ou inhibiteur sur le neurone cible.

1.1.3 Les assemblées de neurones

En 1949, Donald Hebb postula que l'organisation temporelle des décharges au sein de groupes fonctionnels

de neurones contribue au codage de l'information neurale. De tels groupes, synchronisés, sont appelés des

assemblées. Ce concept a été approfondi par Gerstein en 1989 (Gerstein et al, 1989). En particulier au niveau

de la zone corticale du cerveau, des groupes de neurones sont capables de se synchroniser pour répondre

ensemble à une tâche. La détection de ces assemblées est un domaine très complexe au vue des techniques

actuelles d'imagerie neuronale. De plus il est également di�cile avec une seule mesure de déterminer si les

potentiels d'action détectés dans une courte fenêtre de temps et provenant de plusieurs neurones sont le fruit

du hasard ou d'une réelle synchronisation. C'est dans ce domaine que la modélisation des neurones devient

une technique extrêmement précieuse et importante à développer.

1.1.4 La notion de petit monde et les neurones

La notion de petit monde (small-world en anglais) a été introduite en 1967 par Stanley Milgram. Cette théorie

est née d'une expérience menée par Milgram cette année là. Il a cherché à connaitre le nombre minimal de

personnes reliant deux individus aux États-Unis. Pour cela il a envoyé 50 lettres à des personnes vivant à

Omaha dans le Nebraska avec pour instruction de faire suivre cette lettre à une personne habitant à Sharon

dans le Massachusetts. La contrainte étant que cette lettre ne pouvait se transmettre que de main à main et à

une connaissance personnelle. Cette expérience ne fut pas une grande réussite puisque seulement trois lettres

sur cinquante arrivèrent à destination dont une en quatre jour. Par la suite le protocole fut amélioré et des

8

Page 9: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 1 Page 9

chercheurs arrivèrent à un taux de réception de 97%. La théorie des small-world est à mettre en relation avec

le concept de �6 degrés de séparation� qui suggèrent que tout individu sur le globe peut être relié à n'importe

quelle autre personne au travers d'une chaine de relation individuelle comprenant six personnes (Guare, 1990).

L'ensemble des neurones, par exemple chez l'Homme et chez C.elegans possède une structure particu-

lière. Il a été montré que leur position spatiale n'est pas fortuite et correspond à un compromis entre coût

énergétique (pour le maintien des connexions entre neurones) et e�cacité (Ahn et al, 2006, Raj et al, 2011).

Plusieurs études ont permis de cartographier cette structure particulière (Kwok et al, 2007). Les scienti�ques

ont ensuite représenté ce réseau par un modèle facilement manipulable : les graphes.

Un graphe est un ensemble de point, appelés sommets ou n÷uds, pouvant être reliés entre eux par paires.

Ces liens, appelés arcs peuvent être orientés ou non. Il est alors question de graphes dirigés ou de graphes non

dirigés. Ces graphes sont très utilisés pour représenter des réseaux comme les réseaux sociaux, les réseaux

métaboliques, et d'une manière plus générale des liens existant entre plusieurs objets. Un exemple de graphe

de neurone est donné en Figure 2.

Des études sur ces structures neuronales (Downes et al, 2012, Iturria et al, 2008) ont montré que ces

réseaux possédaient les propriétés des petits mondes, que nous détaillerons plus loin.

Figure 1.2 � Exemple de réseau de neurones, d'après Sohn et al, 2011. Le réseau de neurone représenté icicorrespond à une partie de celui de C.elegans. Les triangles, rectangles et ronds correspondent à di�érentstypes de neurones. Les traits entre ces neurones représentent les axones et les dendrites reliant les neurones.

1.2 Objectifs

La structure globale des connexions entre les neurones, notamment dans le cerveau, possède deux caractéris-

tiques très intéressantes : la présence d'assemblées et une topologie de type petit monde.

9

Page 10: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 1 Page 10

Les assemblées peuvent être assimilées à des groupes de neurones synchronisés. Elles représentent un sujet

d'étude important, par exemple dans des questions d'apprentissage, de conscience ou dans le cadre de la ma-

ladie d'Alzheimer où il semblerait que certains groupes de neurones soient particulièrement ciblés (D'Amelio

et al, 2012). Cependant, à l'heure actuelle, il n'existe pas de critère de sélection sûr pour dé�nir et détecter

une assemblée de neurone in vivo.

Pour répondre à cette problématique nous nous proposons de mettre en place un modèle de réseau de

neurone a�n de simuler des assemblées. Le modèle de réseau sera construit selon une topologie petit monde

modulaire. C'est-à-dire qu'en plus des propriétés caractéristiques des petits mondes nous chercherons à ob-

tenir des modules, ou groupes physiques, de neurones.

Cette notion de module est couramment utilisée dans l'étude des objets représentés sous forme de graphe.

Pour détecter des modules nous utiliserons une mesure développée par Michelle Girvan et Marc Newman

en 2002 : la modularité (Girvan and Newman, 2002). Nous en expliciterons le détail plus tard. A l'heure

actuelle tous les scienti�ques ne s'accordent pas sur la notion exacte de module. Cependant ils s'entendent à

dire qu'un module correspond à un ensemble de n÷uds, dans un graphe, qui sont fortement reliés entre eux

et faiblement relié au reste du graphe (Wagner et al, 2007). Dans certains cas un module est associé à une

fonction (Sohn et al, 2011, Clune et al, 2012).

Dans un second temps nous souhaitons implémenter un algorithme de classi�cation adapté à la détection

d'assemblées. En particulier nous souhaitons adapter la technique des k-moyens en se basant sur l'activité

des neurones.

Finalement nous étudierons le comportement des neurones, modélisés par simulation à évènements dis-

crets, en réseau. Nous testerons alors l'hypothèse selon laquelle il existe une corrélation entre la structure du

réseau et son comportement : nous espérons être capables de détecter des assemblées (comportement) qui

correspondent à des modules (structure).

1.3 La modélisation des neurones

La modélisation permet la conception d'un modèle qui est une simpli�cation d'un objet ou d'un système

réel. Par exemple, la modélisation d'une maison peut consister à quatre murs avec un toit, une porte et

deux fenêtres. Toutes les maisons ne sont pas identiques, mais de manière simpli�ée, elles correspondent à la

modélisation précédente.

La modélisation d'un neurone ou d'un groupe de neurone dépend tout d'abord de la fonction et de l'activité

à reproduire. Il existe de nombreux modèles

1.3.1 Modélisation continue de neurone unique

Le modèle d'Hodgkin-Huxley (Hodgkin & Huxley 1952) est une modélisation biophysique à l'échelle de la

cellule. C'est l'un des modèles de neurone unique les plus précoces et les plus précis encore à l'heure actuelle.

Il décrit l'initiation et la propagation d'un potentiel d'action à l'aide d'équations di�érentielles non linéaires.

10

Page 11: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 1 Page 11

Les di�érents composants de la membrane comme les canaux K+ sont assimilés à des grandeurs électriques.

Ce modèle a été di�éremment simpli�é par exemple avec le modèle de Doya pour ne citer que le plus récent.

Les di�érentes simpli�cations du modèle d'Hodgkin-Huxley permettent de modéliser de grands réseaux de

neurones (Buhry, 2010).

1.3.2 Modélisation continue de réseaux de neurones

Le modèle Integrate and �re (Lapicque, 1907 ) représente l'activité électrique du neurone sous forme de

charge et de décharge d'un condensateur à travers une résistance. Cependant ce modèle ne rend pas compte

de l'apparition d'un potentiel d'action.

Le modèle Leaky-Integrate and �re semblabe au modèle précédent, permet en plus de ramener le neurone

simulé à son potentiel de repos grâce à un courant de fuite. Ces deux modèles ont l'avantage d'avoir peu de

paramètres à régler et sont donc utilisés pour simuler de très grands réseaux de neurones où seule l'activité

globale du système est importante.

Plus tard, d'autres modèles, plus réalistes concernant les phénomènes biologiques, ont été développés sur

la base des deux précédents. Par exemple le modèle Resonate and �re ou encore le modèle d'Izhikevich.

Le point commun à tous ces modèles, qu'ils soient pour modéliser un neurone ou un réseau, est qu'ils se

basent sur une simulation par évènements continus (type équations di�érentielles)

1.3.3 Modélisation discrète

Actuellement très peu de modèles existent pour modéliser le comportement d'un ou plusieurs neurones par

évènements discrets. Le plus connu reste le modèle de McCulloch et Pitts (McCulloch & Pitts, 1943). Ce

modèle est à la base des réseaux de neurones arti�ciels de plus en plus utilisés aujourd'hui. Les dendrites

sont représentées par des entrées pondérées. Les fonctions excitatrices ou inhibitrices des synapses sont

représentées par des poids dont la somme est faite à l'intérieur du neurone. Celui-ci applique ensuite une

fonction d'activation, souvent non linéaire, avant de renvoyer des données en sortie. Ce type de neurone est

très utilisé pour l'apprentissage.

11

Page 12: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Deuxième partie

Fondements théoriques

12

Page 13: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 2 Page 13

2.1 Le projet PEPS : NeuroConf : Formalisation et Simulation pour

la Reconstitution de Con�gurations Neuronales Biologiquement

Plausibles

Ce sujet de stage s'inscrit dans le cadre d'un projet Projet Exploratoire Premier Soutien (PEPS). Il concerne

la biologie, l'informatique et les mathématiques. Le �nancement à été obtenu pour 1 an (2012-13). Ce projet

se situe dans le contexte de la modélisation des neurones et particulièrement dans celui de connaitre le com-

portement individuel d'un neurone inclut dans un réseau connu. A l'heure actuelle des techniques d'imagerie

de précisions diverses permettent :

� d'enregistrer l'activité d'un neurone isolé. Ces techniques sont très précises au niveau spatial et temporel

mais doivent être réalisées en anesthésie et sont très invasives.

� d'enregistrer l'activité d'un groupe de neurones. Ces techniques (Électroencéphalogramme, Magnéto-

encéphalogramme, Imagerie par Résonance Magnétique fonctionnelle et Tomographie par Émission de

Positron) ont une grande résolution temporelle et sont peu invasives ou non invasives. Cependant elles

ont une faible résolution spatiale (Sporn, 2011).

Ainsi les techniques actuelles ne permettent pas d'enregistrer précisément l'activité des neurones tout en

connaissant exactement les connexions qui les relient.

Le but de ce projet PEPS est d'arriver à mieux comprendre les mécanismes et structures impliqués

dans la coordination neuronale, en lien avec la production de comportements sensorimoteurs chez le singe.

Cette démarche vise à compléter les enregistrements d'activité neuronale unitaire par la modélisation et la

simulation informatique et robotique. L'un des aboutissements de ce projet est également de pouvoir présenter

de nouveaux outils de développement et de validation de modèles computationnels et statistiques de l'activité

neuronale.

2.2 Simulation par évènements discrets

Modélisation et simulation sont deux concepts fortement reliés : comme nous l'avons vu, la modélisation

simpli�e un objet ou un système. Cependant, elle ne permet pas d'en connaitre le comportement dans le

temps. C'est la simulation qui nous permet de prévoir le comportement d'un objet ou d'un système modélisé.

En opposition à la simulation continue, qui représente les systèmes sous forme d'équations di�érentielles

à résoudre, il existe la simulation discrète. Dans le principe, la simulation continue observe le temps comme

un �ot continu. La simulation discrète en revanche observe le temps en tant que tranches : Une personne qui

observe la cuisson d'un gâteau en restant en permanence devant le four sera dans le cas d'un aperçu �continu�.

Par contre, si cette même personne revient voir la cuisson de son gâteau à di�érents moments, elle sera dans

le cas d'un aperçu �discret�.

Il existe deux types de simulation discrète :

� la simulation en temps discret

� la simulation par évènements discrets

13

Page 14: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 2 Page 14

2.2.1 Principe de la Simulation par Évènements Discrets

Pour dé�nir ces deux aspects prenons l'exemple d'un automate cellulaire : le jeu de la vie asynchrone. Un

automate cellulaire possède un ensemble de composants nommés cellules et toutes identiques. Elles sont lo-

calisées spatialement sur une grille en deux dimensions. Ces cellules ne peuvent avoir que deux états : mort

ou vivant. Elles s'in�uencent les unes les autres : en e�et pour qu'une cellule reste vivante elle doit avoir 2

ou 3 voisins vivants. Une cellule vivante mourra si elle a donc plus de trois voisins (surpopulation) ou moins

de deux (isolement). Une cellule morte deviendra vivante (naissance) si elle possède exactement trois voisins.

En simulation en temps discret, à chaque pas de temps toutes les cellules seront examinées et leur état

changera en fonction du nombre de voisins qui les entourent. Une fois que toutes les cellules ont changé (ou

non) d'état, cela constitue l'état global et la simulation avance d'un pas de temps.

Dans ce type de simulation discrète il est supposé que le changement d'état quel qu'il soit prend toujours

le même laps de temps. Un modèle plus proche de la réalité suppose que la mort ou la naissance d'une

cellule dépendent d'une quantité qui représente la capacité de la cellule à correspondre à son environnement.

Cette quantité sera appelée ��tness�. Ainsi une cellule vivante possède une �tness positive. Lorsque l'envi-

ronnement devient hostile (trop ou pas assez de voisins) cette �tness va rapidement diminuer et atteindre 0.

C'est alors que la cellule mourra. Au contrainte, une cellule mort possède une �tness négative. Si l'environ-

nement lui devient plus favorable sa �tness augmentera. La cellule naitra lorsque la �tness sera supérieure à 0.

Le pré-requis de la simulation par évènements discrets est d'avoir le moyen de di�érencier un évènement

important d'un qui ne l'est pas. Par exemple, dans le cas de notre automate, un évènement important repré-

sente la mort ou la naissance d'une cellule : c'est un changement d'état qui impacte fortement le système.

En revanche la survie d'une cellule n'est pas un évènement important car son état intrinsèque ne changera pas.

La simulation par évènements discrets (ou DEVS) distingue deux types d'évènements : ceux provoqués par

l'environnement, comme la disparition d'un voisin, qui sont des évènements externes et ceux provoqués par le

composant lui-même, appelés évènements internes : par exemple la mort ou la naissance de la cellule regardée.

Les évènements internes sont programmés par le composant pour survenir à un temps donné, sous-réserve

qu'aucun évènement externe n'apparaisse. Un exemple de séquence est proposé en Figure 3.

14

Page 15: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 2 Page 15

Figure 2.3 � Exemple de séquence d'évènements dans le modèle du Jeu de la Vie, d'après Theory of Modelingand Simulation, Zeigler et al, 2000. Au temps 0 la cellule 1 en position (0,0) est morte et la cellule 2 enposition (-1,-1) vivante. Compte tenu de l'environnement et si aucun évènement extérieur ne survient, disonsqu'au temps 1 la cellule 1 (0,0) naitra et qu'au temps 2 la cellule 2 (-1,-1) mourra. Au temps 1 la cellule 1(0,0) change d'état et devient vivante. Elle a e�ectué sa transition interne. Ce changement d'état permet auxcellules 4 (0,1), 6 (0,-1) et 5 (1,1) de programmer leur naissance au temps 3. D'autre part la cellule 3 (-1,1)possède dorénavant quatre voisins et programmera sa mort au temps 3. Suite à ces changements d'états, lacellule 2 (-1,-1) qui avait programmé sa mort au temps 2 doit prendre en compte au temps 1 les changementsintervenus parmi ses voisins: les évènements externes. Par la naissance de la cellule 1 (0,0), la cellule 2 (-1,-1)se retrouve avec assez de voisins pour ne plus mourir. Elle annule donc sa mort programmée au temps 2.Ainsi, le prochain évènement programmé se situe au temps 3. Le système passe directement du temps 1 autemps 3 sans considérer le temps 2. Au temps 3 plusieurs cellules doivent changer leur état. Cependant enfonction de quelle cellule commence par changer son état cela impactera sur l'état et la programmation desautres cellules. C'est le problème des évènements simultanés.

Ainsi le principe de la simulation par évènements discrets peut se résumer comme suit : le temps de

simulation est discret. Chaque composant de la simulation est a�ecté par deux types d'évènements : les

évènements externes, qu'il ne contrôle pas, et les évènements internes qu'il contrôle. Un composant prévoit

un évènement interne à un temps t+x. Si aucun évènement externe n'apparait la simulation ira du temps t

au temps t+x sans s'arrêter sur les temps intermédiaires. En revanche si un évènement externe apparait il

peut se produire des changements dans la prévision du prochain évènement interne du composant. Ainsi le

prochain temps où la simulation s'arrêtera peut être di�érent. Nous avons vu dans la Figure 2 le problème des

évènements simultanés. Pour résoudre ce type de problème il existe le parallel DEVS où tous les composants

passent leur transition interne en même temps. Une autre méthode plus souvent utilisée consiste à dé�nir un

ordre de priorité parmi les composants. (Ziegler et al 2000)

2.2.2 Cadre de modélisation

La simulation par évènements discrets possède un système de représentation propre sous forme de modèle

couplé/modèles atomiques. Un modèle couplé comprend un ensemble de modèles atomiques et dé�nit la

manière dont ils sont liés entre eux. D'une manière générale un modèle atomique est une structure

M =< X, S, Y δint, δext, λ, ta > avec :

� X l'ensemble des valeurs d'entrée

15

Page 16: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 2 Page 16

� S l'ensemble des états

� Y l'ensemble des valeurs de sortie

� δint :S → S la fonction de transition interne

� δext : Q ∗X → S la fonction de transition externe où Q = {(s, e) |s ∈ S, 0 ≤ e ≤ τ (s)} est l'état globaldu système, e étant le temps écoulé depuis la dernière transition.

� λ : S → Y est la fonction de sortie

� ta : S → R+0,∞est le temps d'avancement compris dans l'ensemble des réels positifs 0 et ∞compris.

Il existe plusieurs modèles de DEVS. Nous avons développé un exemple de type Processeur que nous expli-

querons par la suite. (Ziegler et al, 2000).

2.3 Les petits mondes

2.3.1 Les graphes

L'un des tous premiers exemple de graphe nous vient de Léonhard Euler (Euler, 1741), mathématicien Suisse

qui s'attaqua au problème suivant : La ville de Königsberg (aujourd'hui Kaliningrad) est construite autour

de deux îles reliées entre elles par un pont. Six autres ponts relient l'une ou l'autre des îles aux rives de la

rivière. Le problème étant de passer une seule et unique fois par chacun des ponts et de revenir à son point

de départ (Figure 4)

Figure 2.4 � Pont de Königsberg, D'après Euler, 1759. Pour résoudre le problème de la promenade, Eulera représenté les ponts de Königsberg sous forme de graphe à partir du schéma de la ville (A). Chacun desarcs du graphe en B correspond à l'un des ponts. Les sommets représentés par des lettres correspondent auxquatre morceaux de terre délimités par la rivière.

Cet exemple est uniquement historique puisqu'il n'existe pas de solution pour ce problème. Cependant

il permet de pouvoir appréhender la notion de graphe. D'autre part c'est grâce à Euler et à ce problème

mathématique qu'est née la théorie des graphes. Les graphes regroupent en fait l'ensemble des objets qu'il

est possible de représenter sous forme de graphe et des algorithmes, propriétés et théorèmes permettant

d'étudier, de prédire le comportement de ces graphes ainsi que de les générer. De plus le terme générique de

théorie des graphes comprend des théories plus précises comme la théorie des graphes aléatoires.

16

Page 17: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 2 Page 17

2.3.2 La théorie des petits-mondes

Dans le cadre de ce projet nous avons particulièrement utilisé la théorie des petits mondes (Milgram, 1967).

En 1998, Watts et Strogatz ont mis au point un algorithme permettant de générer des graphes de type

petit monde : c'est à dire que chaque sommet du graphe n'est pas à plus de x sommets de tout autre. Dans

cet article (Watts & Strogatz, 1998) deux critères sont décrits, permettant de quali�er un graphe de petit

monde : le coe�cient de clustering et la taille du chemin caractéristique moyen. Dans un graphe, le chemin

caractéristique correspond au plus court chemin (suite d'arcs et de sommets) permettant de joindre deux

sommets. Le chemin caractéristique moyen est la moyenne des chemins caractéristiques pour tous les n÷uds

d'un graphe.

Le coe�cient de clustering donne une idée de l'importance d'un n÷ud par rapport à son voisinage, c'est-

à-dire par rapport aux n÷uds auxquels il est relié (Figure 5). Il se dé�nit comme suit :

C = nombre d′ arcs existant entre les voisins du sommet considerenombre total theorique d′arcs possibles entre les voisins du sommet considere

Figure 2.5 � Coe�cient de clustering : Le sommet A est relié aux sommets B, C et D (traits rouges). Pourcalculer le coe�cient de clustering nous allons donc regarder les arcs présents entre ces trois sommets. Noussommes dans le cas d'un graphe non dirigé (les arcs ne sont pas orientés), ainsi théoriquement il peut y avoirtrois arcs entre B, C et D : un arc reliant B et C, un arc reliant C et D, et un arc reliant B et D. En Aces trois arcs existent, le coe�cient de clustering sera donc égal à 3

3 = 1. En B seul un arc est présent, celuireliant D et C (en vert). En gris sont indiqués les arcs théoriques non présents. Dans ce cas le coe�cient declustering sera égal à 1/3. En C, aucun des voisins de A n'est relié. Le coe�cient de clustering sera donc égalà 0.

Ainsi, un n÷ud N avec un coe�cient de clustering fort indique que ses voisins sont fortement liés entre

eux, et �nalement, en l'absence de ce n÷ud N, ses voisins sont capables de communiquer. En revanche un

n÷ud N' avec un faible coe�cient de clustering est indispensable pour la communication entre ses voisins : les

informations vont toujours (dans le cas où C=0) ou souvent passer d'abord par ce n÷ud N' avant d'atteindre

17

Page 18: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 2 Page 18

le voisin cible.

Une notion supplémentaire est importante pour dé�nir un petit monde : en e�et, ces deux mesures dont

nous venons de parler ne su�sent pas à elles seules pour dé�nir un petit-monde. Lorsque ces propriétés sont

étudiées sur un graphe G, le coe�cient de clustering CG et le chemin caractéristique moyen LG sont calculés.

Ils sont ensuite comparés aux coe�cients de clustering CR et au chemin caractéristique moyen LR d'un

graphe aléatoire R qui possède le même nombre de sommets et d'arcs que G ainsi que le même degré moyen

(c'est-à-dire le nombre moyen d'arc que possède un n÷ud dans le graphe). Pour que G soit dé�ni comme un

small-world il faut que : CG > CR et que LG ' LR.

18

Page 19: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Troisième partie

Réalisation du modèle

19

Page 20: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 20

3.1 Environnement de développement

Pour ce projet nous avons utilisé un environnement de développement Java via le logiciel NetBean. Le projet

a été géré grâce à un gestionnaire de version : TortoiseSVN. Pour étudier les réseaux de neurones sous forme

de graphe nous avons utilisé une librairie existante : Jung 2.0.1 développée en Java. Cette librairie permet

de générer di�érents types de graphes. Jung possède également divers algorithmes pour l'étude des graphes.

Les algorithmes que nous avons utilisés seront expliqués plus tard. Dans certains cas des statistiques ont été

réalisées à l'aide du logiciel R.

3.2 Modèles de neurones par graphes

3.2.1 Utilisation du Small-world de Watts et Strogatz

De nombreuses équipes se sont intéressées à la génération de graphes possédant des propriétés de petit monde.

En particulier Watts et Strogatz en 1998 (Watts & Strogatz, 1998) qui ont publié un algorithme qui a été à

la base de nombreuses avancées dans ce domaine.

Dans un premier temps nous avons cherché à travailler avec cet algorithme pour produire des graphes.

Ce dernier n'étant pas implémenté dans la librairie Jung nous avons recherché une implémentation de l'algo-

rithme dont l'architecture du code se rapprochait de celle utilisée dans Jung. Le Laboratoire d'Informatique

Fondamentale d'Orléans a développé la librairie Agape semblable à Jung et open source. L'algorithme de

Watts et Strogatz étant implémenté dans leur librairie nous l'avons intégré à la notre.

L'algorithme développé par Watts et Strogatz est décrit par l'Algorithme 1.

Algorithme 3.1 Génération de petit monde

Étape 1 : Génération d'un graphe non orienté régulier avec N sommets et K degré (N >�> K>�>ln(N)Étape 2 : Pour chaque sommet, retirer un arc selon une probabilité pÉtape 3 : Pour chaque sommet ajout d'un arc selon une probabilité p

La condition en étape 1 (N>�>K>�>ln(N) ) permet de s'assurer que le graphe sera connecté, c'est-à-dire

qu'il n'existera pas à priori de n÷ud isolé dans le graphe.

Cet algorithme permet donc à partir d'un graphe régulier de générer des graphes semi-aléatoires. En e�et,

si la probabilité p vaut 0 le graphe reste totalement régulier. Dans ce cas le chemin caractéristique L tend

vers n2k et le coe�cient de clustering C tend vers 3/4. A l'inverse une probabilité p=1 conduit à la génération

d'un graphe totalement aléatoire. L tend alors vers ln(n)ln(k) et C tend vers k

n .

3.2.2 Recherche de communauté et modularité

Une caractéristique des réseaux de neurones est la présence de module. Pour dé�nir si un graphe possède

des modules, c'est-à-dire s'il est modulaire, il existe une métrique particulière appelée modularité. Elle a

été présentée par Michelle Girvan et Mark Newman en 2002 (Girvan & Newman 2002) tout d'abord sous le

terme de communauté. Ce premier algorithme permet de déterminer la présence de communauté ou module à

20

Page 21: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 21

l'intérieur d'un graphe en calculant l'importance de chacun des arcs : cette mesure s'appelle edge betweenness1 et calcule le nombre de chemins caractéristiques passant par l'arc considéré. Initialement la formule utilisée

permettait de calculer le nombre de chemin caractéristiques passant par un sommet :

B(v) =∑

i 6=v 6=jεVσij(v)

σij

Avec, B(v) la betweenness pour le sommet considéré, i, j, deux sommets entre lesquels le chemin ca-

ractéristique sera calculé. σi,j(v) représent le nombre de plus courts chemins reliant i et j et passant par

v. σi,j représente le nombre total de plus courts chemins reliant i et j. A�n de s'adapter à la recherche de

communauté cette formule a été adaptée pour les arcs :

B(ki,j(pv) =σij(v)

σij

Avec, B(ki,j(pv) la proportion de chemins caractéristiques liant les sommets i et j et passant par l'arc

pv.Ainsi, la betweenness d'un arc sera proche de 1 si peu de chemins caractéristiques le traverse. Cet arc sera

donc probablement situé entre deux communautés.

Par la suite une dé�nition plus générale de la modularité Q à été �xée :

Q = 12m∗∑

i,j(Ai,j −ki∗kj2m

)δcicj

avec m le nombre total d'arcs dans le graphe, A la matrice d'adjacence (c'est-à-dire la matrice rendant

compte de la présence ou non d'un arc entre deux sommets), k le degré du sommet considéré (c'est-à-dire le

nombre d'arc adjacent au sommet), ciet cj les deux communautés considérées et δ symbole de Kronecker. Ce

symbole est une fonction qui prend deux variables, ici nos communautés ciet cj , et qui vaut 1 si ce sont les

même et 0 dans tout autre cas. Ainsi lorsque l'on cherche à calculer la modularité pour deux n÷uds ne se

trouvant pas dans la même communauté la formule vaut 0.

3.2.2.1 Valeurs particulières de modularité

Une autre manière de dé�nir la modularité revient à considérer qu'elle rend compte de la densité des connexion

d'un groupe de n÷uds par rapport à la densité globale des connexions dans le graphe. Finalement elle rend

compte de l'organisation structurelle d'un graphe en communauté et de leur pertinence. La modularité peut

varier entre -1 et 1.

En Figure 6.A il n'y a qu'une seule communauté composée des 4 n÷uds du graphe. Ce graphe est dit com-

plet puisque toutes les connexions possibles sont présentes. La modularité est de 0,25 et tend vers 0 lorsque

l'on augmente le nombre de n÷uds entièrement connectés (elle est de 0,005 pour un graphe de 200 n÷uds).

De la même manière, en Figure 6.B nous avons deux communautés qui comprennent d'une part les n÷uds 0

et 2, et d'autre part les n÷uds 1 et 3. Pour la suite nous garderons toujours ce découpage. Toujours sur un

graphe complet la modularité est alors de 0,08 et tend vers 0 (0,002 pour un graphe complet de 200 n÷uds).

Dans ces deux premiers cas puisque le graphe est complet il est intuitif qu'il n'existe pas de communautés

(tous les n÷uds étant connectés entre eux de la même manière). C'est ce qu'indique une modularité qui tend

1Il n'existe pas en français de terme équivalent à betweenness. Nous nous autorisons donc à utiliser le terme anglais.

21

Page 22: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 22

vers 0 voire négative dans certains cas.

La Figure 6.C illustre un graphe composé de deux communautés et dont la modularité est forte : sur cet

exemple simple nous pouvons directement observer que le graphe est structuré en deux communautés. En

revanche, dans la Figure 6.D la modularité est négative et dans ce cas précis la dé�nition des communautés

est en quelque sorte inversée. Ceci est un cas particulier puisque nous avons arti�ciellement dé�ni les com-

munautés pour cet exemple.

Figure 3.6 � Graphes représentants des modularités particulières

3.2.2.2 EBC : Edge Betweenness Clusterer

Dans la libraire Jung est implémenté l'algorithme EdgeBetweennessClusterer (EBC) qui recherche et enlève

du graphe les arcs qui ont la betweenness la plus élevée. EBC prend notamment en argument le nombre d'arc

à enlever dans le graphe. Cette implémentation introduit un biais dans notre recherche de communauté : en

e�et, dans notre cas nous ne connaissons pas à l'avance le nombre d'arcs à enlever d'une part, et le nombre de

communautés ou modules, à trouver d'autre part. Ainsi à chaque fois que nous ferons appel à cet algorithme

il sera utilisé à l'intérieur d'une boucle while en �xant une condition d'arrêt sur le calcul de la modularité

(Algorithme 2).

Algorithme 3.2 Recherche de communauté à partir de la betweenness

Étape 1 : Pour chaque arc du graphe calculer la betweennessÉtape 2 : Supprimer l'arc avec la betweenness la plus élevéeÉtape 3 : Recherche des composantes connexesÉtape 4 : S'il existe plusieurs composantes connexes, chacune représente une communautéÉtape 5 : Répéter les étapes 1 à 4 autant de fois que nécessaire

Une composante connexe d'un graphe est un ensemble de n÷uds tel que pour tous n÷uds de cette com-

posante (ou sous-graphe) il existe un chemin permettant de relier ces n÷uds. Cette dé�nition permet de

détecter des communautés puisqu'en enlevant du graphe l'arc avec la plus forte betweenness il sera possible

22

Page 23: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 23

de couper le graphe en deux parties.

Cet algorithme fait appel à un autre qui calcule uniquement la betweenness. Cependant il est indiqué

dans le code que ce second algorithme n'est pas complètement fonctionnel. L'auteur du code explique que

dans certains cas l'algorithme peut ne pas fonctionner correctement, en particulier dans le cas de graphes

possédant des arcs pondérés : en e�et, il est possible d'attribuer un poids, une valeur numérique, à un arc, qui

permet de décrire de manière plus �ne la relation entre deux n÷ud. Par exemple, dans le cas d'une relation

métabolique il est possible d'attribuer un poids de 2 à un arc reliant un substrat à un produit : cela voudra

dire qu'il faut 2 unités du substrat pour obtenir une unité de produit. Dans le cadre de notre projet nous

fonctionnons toujours sur des arcs possédant un poids de 1, ce qui correspond à des graphes non pondérés.

Le problème de l'algorithme concerne une fonction qui calcule directement la betweenness et qui est utilisée

soit pour des graphes pondérés, soit pour des graphes non pondérés. Ce problème se divise en deux parties :

la première étant de garder en mémoire les arcs suivant celui visité, ainsi que leur poids. Le second concerne

la mise à jour du calcul de distance en fonction du poids de l'arc considéré.

Bien que le problème soit noté au niveau d'une fonction utilisant des graphes pondérés et

non au niveau de celle qui utilise des graphes non pondérés, nous avons tout de même décidé

de rechercher une autre technique a�n de partitionner les graphes de manière plus sûre.

3.2.2.3 PKM : Prior Knowledge and Modularity

Des recherches bibliographiques nous ont permis de trouver un algorithme basé sur l'optimisation de la valeur

de modularité. Il a été publié par Haifeng Du en 2007 (Du et al, 2007). Cet algorithme permet dans un premier

temps de créer plusieurs communauté en utilisant les n÷uds du graphe ayant le plus fort degré (c'est-à-dire

ayant les plus grand nombre d'arcs incidents). Strictement leur technique se base ensuite sur une matrice

utilisant la fraction des arcs du graphe présent dans chacune des communautés. Les informations présentes

dans l'article n'étaient pas su�santes pour me permettre de totalement comprendre comment implémenter

cet algorithme. J'en ai donc gardé le principe sans passer par leur matrice (Algorithme 3).

Algorithme 3.3 Partitionnement de graphe par optimisation de la modularité

Étape 1 : Calculer le degré de chaque n÷ud du graphe.Étape 2 : Trouver le n÷ud avec le plus fort degré et créer une communauté comprenant ce n÷ud et tousses voisinsÉtape 3 : Supprimer tous les arcs du n÷ud de plus fort degréÉtape 4 : Si plus aucun arc ne reste dans le graphe, la structure initiale communautaire est obtenue. Sinonretourner à l'Etape 1.Étape 5 : Pour chaque communauté, si des n÷uds se retrouvent dans plusieurs communautés :Étape 5.a : Calculer la modularité en supprimant tour à tour le n÷ud dans les communautésÉtape 5.b : Garder la con�guration qui augmente le plus la modularitéÉtape 5.c : Tant qu'il reste des n÷uds dans plusieurs communautés, retourner à l'Etape 5.Étape 6 : Calculer la modularité pour la structure initiale communautaireÉtape 7 : Trouver la jointure des deux communautés qui augmente le plus fortement la modularitéÉtape 8 : Joindre ces communautés et les supprimer de la structure initiale communautaireÉtape 9 : Tant que la modularité augmente retourner à l'Etape 6

A�n de valider l'implémentation de cet algorithme nous l'avons testé sur un graphe dont les communau-

23

Page 24: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 24

tés et la modularité sont connues. Nous avons choisi d'utiliser le réseau de Zachary : ce réseau représente

la scission d'un club de karaté suite à des problèmes internes. Chaque n÷ud du graphe représente un in-

dividu. Plusieurs auteurs dont Newman en 2004 (Newman, 2004) ont trouvé, grâce à leurs algorithmes de

partitionnement et d'optimisation de la modularité, deux communautés, correspondant à un individu près,

aux groupes s'étant formés après la scission.

Notre algorithme trouve à peu près la même valeur de modularité. Cependant il est capable de détec-

ter exactement les communautés formées après la scission du club (Figure 6). Dans le partitionnement de

Newman l'individu 10 n'est pas dans la bonne communauté. Dans notre cas, avec l'algorithme EBC c'est

l'individu 3 qui n'est pas dans la bonne communauté.

L'intérêt tout particulier de ce réseau est sa correspondance avec la réalité : en e�et, lors du partition-

nement du graphe nous savons exactement quelles doivent être les communautés puisque celles-ci doivent

correspondre à la scission du club ayant eu lieue dans la réalité. C'est ainsi que nous savons que dans l'al-

gorithme de Newman le n÷ud 10 n'est pas dans la bonne communauté et de même pour le n÷ud 3 dans

l'algorithme EBC.

Exemple 1. Pour le graphe de Zachary nous avons au départ 14 communautés. Par exemple, les deux

premières communautés détectée par le PKM sont

� [34, 32, 33, 9, 10, 14, 15, 16, 19, 21, 20, 23, 24, 27, 29, 28, 31, 30]

� [1, 2, 32, 3, 4, 5, 6, 7, 8, 9, 11, 12, 13, 14, 18, 20, 22]

Dans ces deux communautés nous pouvons observer que les n÷uds 32, 9 et 14 sont présents à chaque fois.

Ceci signi�e que ces trois n÷uds étaient tous les deux reliés aux n÷uds 34 et 1 qui étaient les deux premiers

n÷uds avec le plus fort degré.

Exemple 2. Après avoir réparti les n÷uds présents dans plusieurs communautés de façon à augmenter la

modularité, la modularité initiale de la structure communautaire est de 0,353.

A la �n de l'algorithme le graphe est divisé en deux communautés pour une modularité de 0,421

� [1, 2, 3, 4, 5, 6, 7, 8, 11, 12, 13, 14, 17, 18, 20, 22]

� [9, 10, 15, 16, 19, 21, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33]

Bien que l'algorithme EBC ne soit pas totalement �able il semblerait que dans ce cas précis il

fonctionne correctement. Pour la suite du projet nous utiliserons toujours les deux algorithmes

EBC et PKM lors de la recherche de communauté.

3.2.3 Le problème de la modularité dans les petits mondes.

Dans la littérature il est connu que l'algorithme de Watts et Strogatz bien que formant des graphes de

types petit monde, ne permet pas de créer de modules. Nous avons donc modi�é cet algorithme a�n de

24

Page 25: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 25

Figure 3.7 � Comparaison de di�érents algorithmes de partitionnement: A: Algorithme Prior Knowledgeand Modularity. B:Algorithme EdgeBetweennessClusterer implémenté dans Jung. C: Algorithme de Newman(2004). Les valeurs de modularité en A et B sont calculées lors du partitionnement. En C la valeur de lamodularité est une moyenne de plusieurs publications où pour le même partitionnement Q varie entre 0,381et 0,412.

25

Page 26: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 26

générer directement des petits mondes modulaires (Algorithme 4). En e�et, grâce à l'évaluation et à l'op-

timisation de la modularité il est possible de modi�er un graphe de façon à le rendre plus ou moins modulaire.

Algorithme 3.4 Génération de petit monde modulaire

Étape 1 : Génération d'un graphe régulierÉtape 2 : Recherche de communauté grâce aux algorithmes EBC ou PKM et calcul de la modularité initiale.Étape 3 : Pour chaque sommet, retirer un arc selon une probabilité pÉtape 4 : Si l'arc retiré isole le n÷ud, ne pas retirer l'arcÉtape 5 : Calculer la modularitéÉtape 6 : Si la modularité diminue, ne pas retirer l'arcÉtape 7 : Pour chaque sommet ajout d'un arc selon une probabilité pÉtape 8 : Calculer la modularitéÉtape 9 : Si la modularité diminue, ne pas rajouter l'arc

Grâce à la modi�cation de cet algorithme nous forçons la génération d'un graphe ayant des propriétés

de graphe petit monde et des modules. De plus, a�n d'éviter d'avoir des n÷uds isolés lors de la formation

du graphe petit monde (que nous appellerons Watts-Strogatz par la suite) nous avons introduit une étape

supplémentaire : cette étape 4 empêche l'algorithme de retirer un arc si le n÷ud considéré se retrouvent

isolé ensuite. En e�et, la présence de n÷uds isolés biaise la mesure de la modularité puisqu'un n÷ud seul

correspondra à une communauté. De plus, du point de vue de la pertinence biologique il n'existe pas dans le

cerveau de neurones qui soit totalement isolé. Il est important de noter que pour le calcul de la modularité

lors de la formation du petit monde les communautés utilisées sont celles détectée par les algorithmes EBC

et PKM.

3.2.3.1 Analyse de facteurs in�uençant la topologie du Watts-Strogatz

Trois autres facteurs in�uencent la génération du Watts-Strogatz : la probabilité p de remaniement, le degré

moyen du graphe initial et le nombre de n÷uds. Nous avons particulièrement étudié l'e�et de ces trois facteurs

sur la distance-arc moyenne du graphe et sur la modularité (Figure 8).

Dans un graphe il est possible de calculer une distance : soit en considérant le nombre de n÷uds qui

séparent deux n÷uds N et N', soit en considérant le nombre d'arcs séparant ces deux n÷uds. Dans le premier

cas nous parlerons de distance-n÷uds, dans le second de distance-arcs. Pour étudier cette distance, ainsi que

la modularité nous avons travaillé sur un graphe initial de type régulier et utilisé l'algorithme PKM pour la

recherche de communauté sur le graphe initial (avant la génération du Watts-Strogatz modulaire), ceci car

cette condition est la plus rapide concernant le temps de calcul.

26

Page 27: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 27

Figure 3.8 � Évaluation de l'impact de la probabilité de remaniement, du degré moyen et du nombre den÷uds sur la distance-arcs moyenne et sur la modularité du Watts-Strogatz. Le graphique A représentel'évolution de la distance-arc moyenne dans le graphe en fonction de la probabilité de remaniement pour 100n÷uds par graphes avec un degré moyen de 10. Il n'existe pas de di�érence signi�cative entre chaque conditionde p=0,1 à p=0,4 d'une part, et p=0,5 à p=0,8 d'autre part. Le graphique B représente l'évolution de ladistance-arcs en fonction du degré moyen du graphe et de la probabilité de remaniement pour des graphes de100 n÷uds. Le graphique C représente l'évolution de la distance-arcs en fonction des deux facteurs précédentset du nombre de n÷uds. Le graphique D représente l'évolution de la modularité calculée avec les algorithmesEBC (en bleu) et PKM (en rouge) en fonction des trois facteurs. N : n÷uds, D : degré, P : probabilité. Lesgraphiques sont construits à partir des moyennes de 10 expériences indépendantes pour chaque conditions.Le test statistique réalisé est un Kruskal-Wallis. Signi�cativité : NS : Non Signi�catif. * : p-value<0,05. ** :p-value<0,01. *** : p-value<0,001. Les barres d'erreurs représentent les écart-types.

Dans la Figure 8.A nous pouvons observer qu'il existe un seuil clair d'in�uence de la probabilité de re-

maniement sur la distance-arcs : avant p=0,5 la distance-arcs moyenne est d'environ 4 arcs. Au delà elle

est de 5 à 6 arcs. A�n de con�rmer la séparation observée sur la Figure 8.A nous avons choisi de tester

ensuite l'in�uence combinée de 3 probabilités avec le degré moyen du graphe initial : p=0,2 , p=0,3 (qui ne

présentaient pas de di�érences signi�catives) et p=0,6 (qui présentait une di�érence signi�cative avec des

probabilités plus faibles. Nous avons également testé p=0,7 qui ne présentait pas de di�érences signi�catives

avec p=0,6. Nous avons choisis de tester 3 valeurs de degré moyen dans la Figure 8.B : 10, 20 et 30 sur

des graphes possédant 100 n÷uds (soit 1 000 000, 2 000 000 et 3 000 000 d'arcs). En changeant le degré

moyen du graphe il n'y a toujours pas de di�érences signi�catives entre p=0,6 et p=0,7 mais les résultats ne

27

Page 28: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 28

sont pas présentés. Ce graphique con�rme l'absence de di�érences signi�catives quel que soit le degré moyen

entre les probabilités p=0,2 et p=0,3. D'autre part il con�rme la di�érence par rapport à p=0,6 quel que soit

le degré moyen. Finalement nous pouvons observer qu'en augmentant le degré la distance-arcs diminue de

manière signi�cative entre 10 et 20 de degré moyen, 10 et 30 de degré moyen et également entre 20 et 30 de

degré moyen. La Figure 8.C présente l'in�uence combinée des trois facteurs (probabilité, degré, n÷uds) sur la

distance-arcs du Watts-Strogatz. Nous pouvons observer qu'il existe une di�érence signi�cative entre le groupe

test de 100 n÷uds et le groupe test de 200 n÷uds. Plus particulièrement pour une même probabilité de re-

maniement et pour un même degré moyen la distance-arcs augmente avec le nombre de n÷uds dans le graphe.

Ces graphiques nous permettent d'évaluer l'in�uence de di�érents facteurs sur la formation du Watts-

Strogatz et sur son architecture, ou topologie, �nale. Nous pouvons déduire de ces graphiques que le degré

moyen du graphe initial est le facteur ayant la plus forte in�uence sur la distance : entre un degré 10 et un

degré 20 pour un même nombre de n÷uds et une même probabilité (0,6 pour cet exemple), la distance-arcs

est divisée par 1,5. Pour ce même degré moyen (soit 20) si le nombre de n÷uds est augmenté la distance-arcs

augmente également mais d'un facteur 1,3. Concernant la probabilité de remaniement la di�érence se fera en

choisissant une probabilité inférieure ou supérieure à 0,5. Les valeurs et la signi�cativité des Kruskal-Wallis

pour chacune des conditions sont disponibles à l'adresse suivanteFigure Supplémentaires.

Ces résultats nous permettent de dé�nir des contraintes pour la génération du Watts-Strogatz de manière

à le rendre pertinent dans le cadre de notre problématique biologique. En e�et, il est connu que dans le

cerveau humain chaque neurone peut communiquer avec n'importe quel autre neurone par l'intermédiaire de

trois neurones maximum (Braitenberg and Schüz, 1991, Abeles, 1991) : en d'autres termes, la distance-arcs

moyenne dans le cerveau est de 4. Nous reviendrons sur le choix de ces contraintes topologiques un peu plus

tard.

La Figure 8.D présente l'évolution de la modularité, calculée par les algorithmes EBC et PKM, en fonction

des trois facteurs. Nous pouvons observer que l'algorithme PKM trouve toujours une modularité plus faible

que l'algorithme EBC. De plus les di�érences entre les groupes ne sont pas homogènes : pour 100 n÷uds,

un degré moyen de 10 et des probabilités de remaniement de 0,2, 0,3 et 0,6 il n'existe pas de di�érences

signi�catives quelque que soit l'algorithme. A l'inverse pour le groupe avec 100 n÷uds, un degré moyen de 20

et des probabilités de remaniement de 0,2, 0,3 et 0,6 il existe une di�érence signi�cative quelque soit l'algo-

rithme. Finalement pour 200 n÷uds, un degré moyen de 20 et des probabilités de remaniement de 0,2, 0,3 et

0,6 il n'existe pas de di�érences signi�catives pour l'algorithme EBC, mais il en existe pour l'algorithme PKM.

Ces résultats semblent indiquer qu'une fois encore le degré moyen du graphe représentant

le facteur d'in�uence le plus important.

3.2.3.2 Analyse de la modularité sous di�érentes conditions

A�n d'étudier de la manière la plus exhaustive possible la modularité et son évolution nous avons travaillé

sur di�érentes conditions lors de la génération du petit monde et de la recherche de communautés par la

suite.

Lors de l'étape 1 de l'algorithme c'est un graphe régulier qui est généré, c'est à dire que tous les n÷uds ont

le même degré. A�n d'évaluer l'in�uence du graphe initial sur la formation de notre petit monde modulaire

28

Page 29: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 29

nous avons utilisé deux autres types de graphes :

� Un graphe aléatoire suivant une loi de puissance pour la distribution des degrés. L'algorithme utilisé

est implémenté dans la librairie Jung à partir des travaux de David Eppstein et Joseph Wang (Eppstein

and Wang, 2002).

� Un graphe aléatoire suivant une loi de Poisson pour la distribution des degrés. L'algorithme utilisé est

implémenté dans la librairie Jung à partir des travaux de Paul Erdös et Alfred Renyi (Erdös and Renyi,

1959).

Après avoir généré ce graphe initial nous avons e�ectué une recherche de communauté à l'aide de l'algorithme

PKM ainsi qu'à l'aide de l'algorithme EBC. Après la génération du petit monde nous avons de nouveau ef-

fectué une recherche de communautés avec les deux algorithmes.

Comme nous l'avons vu précédemment ces deux algorithmes ne fonctionnent pas de la même manière :

dans le cas de l'EBC il s'agit d'un algorithme dit divisif : à partir d'un graphe comportant une seule com-

munauté, l'algorithme va chercher à le diviser. En revanche le PKM est un algorithme agglomératif : partant

d'un certain nombre de communautés (dans notre cas déterminées à partir d'un critère strictement physique)

l'algorithme va chercher à diminuer ce nombre. La Figure 9 résume les résultats obtenus pour chacun des

trois types de graphes initiaux et des deux algorithmes de partitionnement avec les conditions suivantes : 100

n÷uds, un degré moyen de 10 et une probabilité de remaniement de 0,5. Ces conditions ont été choisies au

regard des résultats précédents ainsi que des temps de calcul nécessaires.

La Figure 9.A représente les di�érentes modularités initiales et �nales au cours de la recherche de com-

munautés dans le graphe initial, lors de la formation du Watts-Strogatz et au cours de la recherche de

communautés sur le Watts-Strogatz avec les deux algorithmes EBC et PKM. Il apparait clairement dans un

premier temps que le type de graphe initial utilisé in�uence très fortement la suite des résultats. En e�et,

lors de l'utilisation de graphe Eppstein Power Law et Erdös-Renyi la modularité ne dépasse jamais le seuil de

0,3. Ceci signi�e qu'avec ce type de graphe initial les communautés détectées par les algorithmes ne sont pas

pertinentes. De plus au vue des résultats précédents sur ces deux algorithmes nous pouvons en déduire que les

graphes Eppstein Power Law et Erdös-Renyi ne permettent pas la formation de communautés et même avec

un algorithme de type Watts-Strogatz sont trop aléatoires dans leur structure initiale pour donner naissance

à un graphe structuré. Nous pouvons noter que dans le cas de l'algorithme EBC des modularités négatives

apparaissent régulièrement. Ceci est du au fait qu'au début du calcul de la modularité par EBC il n'existe

qu'une seule communauté représentée par le graphe en entier.

La Figure 9.B représente l'évolution du degré moyen dans le graphe au cours de l'algorithme de Watts-

Strogatz en fonction du type d'algorithme utilisé pour la recherche de communautés sur le graphe initial.

Nous pouvons observer que l'algorithme utilisé pour la recherche de communautés n'in�uence pas l'évolution

du degré moyen (excepté dans le cas d'un graphe régulier). La diminution du degré moyen au cours de la

formation du Watts-Strogatz modulaire, sous contrainte de non diminution de la modularité, indique que la

suppression d'arcs dans le graphe conduit plus souvent à diminuer la modularité. A l'inverse, l'ajout d'arcs

dans le graphe conduit à une augmentation de la modularité : nous pouvons en déduire que structurer un

graphe de manière à obtenir des modules est plus évident en ajoutant des arcs qu'en enlevant.

29

Page 30: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 30

Figure 3.9 � Comparaison de di�érents critères lors de la recherche de communauté sur les Watts-Strogatz :Chaque expérience a été réalisée avec un graphe initial de 100 n÷uds, de degré moyen de 10 et une probabilitéde remaniement de 0,5. En A sont présentées les modularités initiales et �nales lors de la génération du grapheinitial (Modularité), lors de la formation du Watts-Strogatz (Watts),lors de l'utilisation du PKM et de l'EBCsur le Watts-Strogatz ((PKM) et (EBC)). En B sont représentés les degrés moyens lors de la formation duWatts-Strogatz. En C sont comparées les modularités �nales après recherche de communautés. PKM(opt) etEBC(opt) correspondent aux valeurs optimales de modularité. PKM(EBC) et EBC(PKM) correspondent auxvaleurs de modularité pour le même nombre de communautés que respectivement EBC(opt) et PKM(opt). Lapartie gauche du graphique représente les résultats suite à l'utilisation de l'algorithme EBC pour la recherchede communautés sur le Watts-Strogatz. La partie de droite représente les résultats suite à l'utilisation del'algorithme PKM pour la recherche de communautés sur le Watts-Strogatz. Ces résultats représentent lamoyenne de trois expériences indépendantes pour chaque condition. Les barres d'erreurs représentent lesécart-types.

30

Page 31: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 31

Comme précédemment nous pouvons également observer que la modularité lors de l'utilisation de l'al-

gorithme PKM est toujours plus faible que lors de l'algorithme EBC. Dans le cadre de nos graphes, dé�nis

de manière arti�cielle la di�érence de fonctionnement entre les deux algorithmes conduit à la formation de

communautés di�érentes. Contrairement au graphe de Zachary étudié précédemment, les graphes générés

lors de ces expériences ne représentent aucune situation réelle à priori. La Figure 9.C représente les modu-

larités �nales après la recherche de communautés. Pour chacun des algorithmes nous avons pris la valeur

de modularité pour le nombre de communauté correspondant. Ainsi PKM(EBC) représente la valeur de la

modularité calculée par l'algorithme PKM pour un nombre de communauté identique à celui déterminé par

l'algorithme EBC pour une modularité maximale (EBC(opt)). Il en va de même pour EBC(PKM). Encore

une fois les modularités calculées par le PKM sont plus faibles que celles calculées par EBC. Cependant entre

EBC(opt) et EBC(PKM), ainsi qu'entre PKM(opt) et PKM(EBC) les di�érences de modularités ne semblent

pas signi�catives dans la majorité des cas. Ces résultats laissent penser, au moins dans le cas de ces graphes

arti�ciels, qu'il n'existe pas qu'un seul et unique partitionnement et que le graphe peut être structuré de

di�érentes manières.

Un exemple de graphe correspondant à chacune des conditions est présenté dans les Figure Supplémen-

taires.

Toutes ces analyses nous ont permis de mieux comprendre les di�érents facteurs à prendre

en compte a�n de répondre à notre problématique biologique. Les deux algorithmes utilisés

pour la détection de communauté, bien que calculant des valeurs de modularité di�érentes,

donnent des résultats qui vont tous dans le même sens. Comme nous l'avons vu, ces deux

algorithmes ne fonctionnent pas de la même manière, et nous pensons que les di�érences

observées proviennent de ce fonctionnement. Cependant leur utilisation conjointe nous permet

d'être plus certains des résultats obtenus.

3.2.4 Les graphes dirigés

Jusqu'à présent nous avons toujours travaillé sur des graphes dit non dirigés : les arcs entre les n÷uds ne

sont pas orientés. Il existe cependant une autre représentation où les arcs entre les n÷uds sont orientés. Il

s'agit des graphes dirigés. Au niveau biologique les graphes non dirigés sont rarement pertinents : en e�et,

en biologie et dans de nombreux domaines, la relation liant un n÷ud N à un n÷ud N' peut être di�érente de

celle reliant le n÷ud N' au n÷ud N. Une manière de représenter cette di�érence est d'utiliser des arcs dirigés.

Plus particulièrement cet aspect devient pertinent dans le cadre de la modélisation de neurones biolo-

giques. En considérant qu'un arc représente un axone, l'information transmise d'un neurone A à un neurone

B transite via cet axone dans un seul sens. En modélisation il est donc important de pouvoir déterminer quel

neurone enverra l'information et lequel le recevra.

Pour étudier la modularité et la génération de graphes correspondants à nos hypothèses, nous avons

d'abord travaillé sur des graphes non dirigés par simplicité : la formule de la modularité a été développée

en premier lieu pour des graphes non dirigés. Elle a depuis été adaptée à des graphes dirigés mais reste un

domaine d'étude complexe, en particulier dans le cas de grand graphes (plus de 50 n÷uds).

La modularité a été adaptée par Elizabeth Leicht et Marc Newman en 2008 (Leicht and Newman, 2008).

La formule de la modularité devient alors

31

Page 32: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 32

Q = 1m ∗

∑i,j(Ai,j −

kini ∗k

outj

m )δcicj

avec m le nombre total d'arcs dans le graphe, A la matrice d'adjacence, kin le degré entrant du sommet

considéré (c'est-à-dire le nombre d'arc qui arrivent au sommet), kout le degré sortant du sommet considéré

(c'est-à-dire le nombre d'arc qui partent du sommet) ciet cj les deux communautés considérées et δ symbole

de Kronecker.

La Figure 10 expose une comparaison simple des modularités sur des exemples de graphes dirigés et non di-

rigés. (Les communautés utilisées sont formées d'une part par les n÷uds 0 et 2, et d'autre part par les n÷uds 1

et 3). L'une des di�érences fondamentales entre les deux formules de la modularité est la matrice d'adjacence.

Matrice d'adjacence de la Figure 10.A

0 1 2 3

0 0 0 1 0

1 0 0 0 1

2 1 0 0 0

3 0 1 0 0

Matrice d'adjacence de la Figure 10.B

0 1 2 3

0 0 0 0 0

1 0 0 0 0

2 1 0 0 0

3 0 1 0 0

Comme nous pouvons le voir, dans le cas d'un graphe dirigé (Figure 10.B) l'orientation de l'arc intervient

dans la matrice d'adjacence. Ainsi si il n'existe pas d'arc allant du n÷ud 0 vers le n÷ud 2, A0,2vaudra 0.

Associé à la prise en compte des degrés entrant et sortant de chacun des n÷uds considérés, Ces modi�ca-

tions permettent de bien tenir compte de l'orientation des arcs dans le graphe. Ainsi, les Figures 10.A, et

10.D présentent la même modularité : les graphes ont proportionnellement le même nombre d'arcs liant les

même sommets, c'est-à-dire le nombre maximal. Entre les Figures 10.B et 10.C nous pouvons observer que

l'orientation de l'arc ne change pas la valeur de la modularité mais que cette dernière est plus faible qu'en

Figure 10.A pour un même nombre d'arcs.

De même les Figures 10.E et 10.H donnent le même résultat que précédemment, en ayant augmenté le

nombre d'arc. Les Figures 10.F et 10.G présentent des modularités plus faibles. En particulier, la Figure 10.G

présente une modularité négative tout en ayant le même nombre d'arcs et les mêmes communautés que la

Figure 10.F. La di�érence se situe au niveau de l'orientation des arcs : nous pouvons observer que le n÷ud

2 possède trois arcs entrant en 10.G et seulement 2 en 10.F, de même le n÷ud 3 possède 2 arcs entrant en

10.G et 1 arc entrant en 10.F.

32

Page 33: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 33

Figure 3.10 � Comparaison des modularités sur des graphes dirigés et non dirigés

Un graphe dirigé contient plus d'informations et peut être plus fortement structuré qu'un graphe non

dirigé. C'est pourquoi la modularité peut évoluer di�éremment : pour une même variation de modularité

entre un graphe dirigé et un graphe non dirigé, la topologie du graphe dirigé sera plus di�érente que pour le

graphe non dirigé. De plus, sur un graphe dirigé la modularité est également plus représentative des relations

entre les n÷uds comme nous avons pu le voir entre les Figures 10.F et 10.G.

3.2.4.1 Analyse de facteurs in�uençant la topologie du Watts-Strogatz

A�n d'étudier l'évolution de la modularité dans le cadre de graphes dirigés nous avons repris le protocole

d'expérience de la Figure 8. Nous n'avons analysé que 4 conditions : 100 n÷uds, un degré moyen de 10 et

20, une probabilité de remaniement de 0,2 et 0,6 (Figure 11). Eu égard au temps de calcul nous n'avons pas

analysé de conditions comprenant plus de degré ou plus de n÷uds.

Dans un premier temps, nous pouvons observer que pour un même nombre de n÷uds, un même degré

moyen et une même probabilité de remaniement, la distance-arcs moyenne dans un graphe dirigé est plus

importante (pour 100 n÷uds, un degré moyen de 10 et une probabilité de remaniement de 0,2 elle est de 4,5

environ pour un graphe non dirigé et de 6 pour un graphe dirigé). Comme pour un graphe non dirigé, en

augmentant le degré moyen la distance-arcs moyenne diminue ( de 6 à 3,5 environ). Dans la Figure 11.A nous

pouvons observer que pour un degré moyen de 20 il n'existe pas de di�érence signi�cative entre les probabi-

lités de remaniement, alors que ces di�érences sont présentes pour un degré moyen de 10. Il est probable que

dans le cas d'un graphe dirigé il existe une limite inférieure pour la distance moyenne, due en particulier à la

contrainte de direction des arcs. La Figure 11.B représente la modularité calculée par les algorithmes EBC et

PKM en fonction des conditions utilisées. Nous pouvons remarquer qu'avec une probabilité de remaniement

de 0,6 il n'existe plus de di�érence signi�cative entre la modularité calculée par EBC ou PKM. De même il

33

Page 34: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 34

Figure 3.11 � Evaluation de l'impact de la probabilité de remaniement et du degré moyen sur la distance-arcsmoyenne et sur la modularité du Watts-Strogatz. Le graphique A représente l'évolution de la distance-arcmoyenne dans le graphe en fonction de la probabilité de remaniement et du degré moyen pour 100 n÷uds pargraphes. Le graphique B représente l'évolution de la modularité calculée avec les algorithmes EBC (en bleu)et PKM (en rouge) en fonction de la probabilité de remaniement et du degré moyen. D: degré, P: probabilité.Les graphiques sont construits à partir des moyennes de 10 expériences indépendantes pour chaque conditions.Le test statistique réalisé est un Kruskal-Wallis. Signi�cativité: NS: Non Signi�catif. *: p-value<0,05. **:p-value<0,01. ***: p-value<0,001. Les barres d'erreurs représentent les écart-types.

n'existe pas de di�érence signi�cative pour un même degré moyen dans la valeur de la modularité calculée par

PKM. Ces résultats con�rment l'in�uence majeure du degré moyen d'une part sur la distance-arcs moyenne

dans le graphe et sur la modularité. Cependant, la modularité reste signi�cativement di�érente entre chaque

condition lorsque l'algorithme EBC est utilisé. Les valeurs et la signi�cativité des Kruskal-Wallis pour cha-

cune des conditions sont disponibles dans les Figure Supplémentaires.

A partir de ces observations nous allons maintenant analyser l'évolution de la modularité de manière plus

précise.

3.2.4.2 Analyse de la modularité sous di�érentes conditions

Cette fois-ci nous avons générés des graphes de 100 n÷uds, avec un degré moyen de 20 et une probabilité de

remaniement de 0,2 : en e�et, suite aux observations et analyses biologique il est connu que la distance-arcs

moyenne dans le cerveau (en considérant qu'un axone représente un arc) est d'environ 4 (soit 3 neurones).

Nous avons donc choisis ces contraintes puisqu'elles conduisent à une distance-arcs moyenne de 3,5 dans le

Watts-Strogatz modulaire.

Comme pour le protocole des graphes non dirigés nous avons également utilisé les graphes Eppstein Power

Law et Erdös Renyi.

Le premier résultat que nous pouvons remarquer dans la Figure 12 est que l'utilisation des graphes aléa-

toires (Eppstein Power Law et Erdös-Renyi) ne conduit pas à un graphe modulaire. Ceci con�rme les résultats

obtenus avec les graphes non dirigés. Sur la Figure 12.A lors de l'utilisation de graphe régulier nous pouvons

observer que lors de la première recherche de communauté et lors de la formation du Watts-Strogatz la mo-

34

Page 35: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 35

Figure 3.12 � Comparaison de di�érents critères lors de la recherche de communauté sur les Watts-Strogatz :Chaque expérience a été réalisée avec un graphe initial de 100 n÷uds, de degré moyen de 10 et une probabilitéde remaniement de 0,5. En A sont présentées les modularités initiales et �nales lors de la génération du grapheinitial (Modularité), lors de la formation du Watts-Strogatz (Watts),lors de l'utilisation du PKM et de l'EBCsur le Watts-Strogatz ((PKM) et (EBC)). En B sont représentés les degrés moyens lors de la formation duWatts-Strogatz. En C sont comparées les modularités �nales après recherche de communautés. PKM(opt) etEBC(opt) correspondent aux valeurs optimales de modularité. PKM(EBC) et EBC(PKM) correspondent auxvaleurs de modularité pour le même nombre de communautés que respectivement EBC(opt) et PKM(opt). Lapartie gauche du graphique représente les résultats suite à l'utilisation de l'algorithme EBC pour la recherchede communautés sur le Watts-Strogatz. La partie de droite représente les résultats suite à l'utilisation del'algorithme PKM pour la recherche de communautés sur le Watts-Strogatz. Ces résultats représentent lamoyenne de trois expériences indépendantes pour chaque condition. Les barres d'erreurs représentent lesécart-types.

35

Page 36: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 36

dularité est plus importante avec l'algorithme EBC. Cependant cette di�érence disparait �nalement lors de la

recherche de communauté sur le Watts-Strogatz modulaire. D'une manière générale nous pouvons également

observer que les valeurs de modularités sont plus faibles que dans le cas des graphes non dirigés, y compris

pour les graphes aléatoires où elle ne dépasse pas 0,1. Nous avons évoqué précédemment le fait qu'un graphe

dirigé contienne plus d'informations qu'un graphe non dirigé. Ces di�érences dans les valeurs de modularités

entre les graphes dirigés et non dirigés peuvent s'expliquer par l'ajout d'une orientation sur les arcs : il ne

su�t plus que le graphe soit structuré pour avoir une forte modularité, mais qu'en plus cette structure puisse

permettre le transfert d'informations à l'intérieur de la communauté. C'est pourquoi dans le cas des graphes

aléatoires la modularité reste aussi faible.

La Figure 12.C représente le même protocole d'expérience que la Figure 9.C. Nous observons toujours

une di�érence signi�cative entre les valeurs optimales de l'algorithme EBC et les valeurs de modularité, pour

un même nombre de communautés, calculées par PKM. Cependant nous observons cette fois-ci une di�é-

rence, à priori signi�cative, entre les valeurs de modularité du PKM(EBC) et du PKM(opt), la modularité

du PKM(opt) étant plus élevée. Ceci peut s'expliquer par les di�érences de communautés : comme nous

l'avons vu précédemment, dans le cadre de graphes dirigés, l'orientation des arcs in�uencent également la

modularité. Ainsi, l'introduction, par exemple, d'un n÷ud possédant de nombreux degrés entrants et peu de

degrés sortants peut faire diminuer la modularité.

La Figure 12.B représente l'évolution du degré moyen lors de la formation du Watts-Strogatz. Pour le

graphe régulier, nous observons comme dans le cas des graphes non dirigés, une diminution du degré moyen

ce qui correspond à une augmentation du nombre d'arcs dans le graphe. Nous n'observons pas de di�érence

quelque soit l'algorithme de partitionnement utilisé sur le graphe initial. Pour les graphes aléatoires l'utili-

sation de l'algorithme EBC sur le graphe initial conduit à une augmentation du degré moyen et donc à une

diminution du nombre d'arcs dans le graphe. L'utilisation de l'algorithme PKM conduit au contraire à une

diminution du degré moyen dans le graphe. Un exemple de graphe correspondant à chacune des conditions

est présenté dans les Figure Supplémentaires.

D'une manière générale ces résultats viennent con�rmer ceux obtenus avec des graphes

non dirigés. D'un point de vue biologique il est plus pertinent d'utiliser des graphes dirigés

et nous avons pu déterminer des contraintes qui nous permettent de nous rapprocher de la

topologie neuronale retrouvée dans le cerveau humain : c'est-à-dire un réseau structuré dont

chaque paire de neurones n'est pas séparée par plus de 3 neurones. L'utilisation des di�érents

algorithmes EBC et PKM sur le graphe initial a une in�uence sur la modularité initiale du

Watts-Strogatz mais cette di�érence disparait lors d'une nouvelle recherche de communauté.

Il serait donc possible d'utiliser indi�éremment, dans nos conditions, les algorithmes EBC et

PKM. Rappelons que pour la formation du Watts-Strogatz par optimisation de la modularité,

les communautés utilisées varient en fonction de l'algorithme (EBC ou PKM) utilisé au départ.

3.3 Modèles de neurones par DEVS

Nous nous sommes ensuite intéressés à la modélisation et à la simulation de neurone à proprement parlé.

Pour cela nous avons utilisé la technique de la simulation par évènements discrets.

36

Page 37: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 37

3.3.1 Exemple du Processeur

Dans un premier temps nous avons travaillé sur un modèle appelé Processeur (Figure 13). Un composant

externe, appelé générateur envoie à intervalle de temps régulier une information que nous appellerons travail.

Le processeur reçoit cette information et change son état interne. Dans ce modèle il n'est pas fait de distinc-

tion entre la fonction de transition interne δintet la fonction de transition externe δext qui sont confondue

dans la fonction de transition δ. La structure du modèle est la suivante :

� X = {j0, j1, j2, j3 | j0 ∈ R, j1 ∈ R, j2 ∈ R, j3 ∈ R}, l'ensemble des variables d'entrée

� S = {”passive”, ”processing”} × R+0 ,∞ × R, avec phase = {”passive”, ”processing”}, l'ensemble des

états

� Y = X, l'ensemble des variables de sortie

� σ = τ (s) ∈ R+0 ,∞ est une variable d'état représentant le temps restant dans l'état courant.

� travail = Rest une variable d'état représentant la valeur réelle du travail.

� La fonction de transition interne (avec e le temps restant dans l'état courant)δ(phase, σ, job, e) =

(”passive”, τ (”passive”) , travail, 0) if X = {/O}(”processing”, τ (”processing”) , x, 0) if X = {j0} and phase = ”passive”

(”processing”, τ (”processing”)− e, travail, 0) if X = {j2} and phase = ”processing”

(”processing”, τ (”processing”) , x, 0) if X = {j3} and phase = ”processing”

(”processing”, τ(”processing”), x, 0) if X = {j0, j1, j2, j3} and phase = ”passive”

� λ (”processing”, σ, travail) = travail, la fonction de sortie

� τ (phase, σ, travail) =

{∞ if phase = ”passive”

processing_time if phase = ”processing”correspondant au temps d'avan-

cement

37

Page 38: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 38

Figure 3.13 � Comportement du Processeur : Lorsque le travail j1 est reçu, la phase change en �processing�.Après σ = processing_time, le travail j1 est transmis à la sortie et la phase change en �passive�. Ensuite letravail j0 est reçu et la phase change en �processing� et après σ = processing_time , le travail j0 est transmisà la sortie et la phase change en �passive�. Lorsque le travail j2 est reçu au cours de la phase �processing�,cette nouvelle information n'est pas prise en compte et le processeur reste en phase �processing� . Cependantδ est mis à jour : σ = τ(”processing”) − e. Puis le travail j0 est reçu et la phase change en �processing�.Lorsque le travail j3 est reçu au cours de cette phase, cette nouvelle information est prise en compte et letravail j0 est e�acé. Le temps restant dans la phase �processing� est initialisé à σ = τ (”processing”), puis letravail j3 est transmis à la sortie. Finalement, en phase �passive�, lorsque n'importe quel travail est reçu, laphase change en �processing� et après σ = processing_time, le travail est transmis à la sortie.

Cet exemple simple nous a permis de mieux appréhender le concept de DEVS et comment

implémenter et gérer les changements d'états lors d'une telle simulation.

3.3.2 Modèle de Neurone : le modèle FeedBack

Par la suite nous avons travaillé sur un modèle DEVS plus représentatif du comportement des neurones.

Chaque neurone possède un port de sortie, appelé out et deux ports d'entrée in et |in, représentant respec-

tivement une excitation et une inhibition. Le modèle atomique se compose de la manière suivante :

� X = {0, 1} l'ensemble des variables d'entrée

� S = {”passive”, ”active”, ”recu”, ”envoie”} l'ensemble des variables d'état

� Y = X l'ensemble des variables de sortie

� σ = τ (s) ∈ R+0 ,∞ est une variable d'état représentant le temps restant dans l'état courant

� Pin = {”in”, ”|in”} l'ensemble des ports d'entrée

38

Page 39: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 39

� Pout = {”out”} l'ensemble des ports de sortie

� seuil = R seuil d'activation du neurone

� δint :S → S la fonction de transition interne

� δext : QxX → S la fonction de transition externe où Q = {(s, e) |s ∈ S, 0 ≤ e ≤ τ (s)} est l'état globaldu système, e étant le temps écoulé depuis la dernière transition.

� δcon :S → S la fonction de gestion des con�its dans le cas où un évènement internet et un évènement

externe apparaissent au même moment.

La fonction de transition externe δext prend en compte les évènements extérieurs c'est à dire l'arrivée d'un

signal via l'un des ports d'entrée. Quel que soit le port d'entrée, l'état courant du neurone sera in�uencé

en fonction de l'évènement qui lui parvient mais également en fonction de l'état dans lequel il se trouvait à

l'instant où l'évènement extérieur est survenu. La fonction de transition interne δint évalue l'état du neurone

au temps suivant de simulation. Ce modèle est une version générique et c'est la connexion entre les di�érents

modèles atomiques (le neurone) qui vont former le modèle couplé (le réseau). Un exemple de modèle couplé

est le modèle dit Feedback dont une séquence de comportement est présentée en Figure 14.

39

Page 40: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 40

Figure 3.14 � Séquence de comportement du modèle couplé Feedback : efEvalAtomic correspond au généra-teur et envoie un signal au Neuron 1 tous les 4 pas de temps. Le seuil d'activation de chaque neurone est �xéà 1. A t=0 Le Neuron 1 reçoit via le port �in� un signal et change alors son état interne : il passe en phase�reçoit�. Il programme son prochain évènement au temps t=1. Le Neuron 2 est toujours en phase passive. EnB, au temps t=1 le seuil d'activation a été atteint, le Neuron 1 change son état et passe en phase �envoie�.Il programme son prochain changement d'état (retour en phase passive) au temps t=2. En C, le Neuron 2reçoit le signal du Neuron 1 via son port �in� et change son état interne : il passe en phase �reçoit�. Sonseuil d'activation est également de 1 : il programme donc son prochain évènement au temps t=3. Dans lemême temps le Neuron 1, comme prévu, change son état interne et devient passif. En D, le Neuron 2 passeen phase �envoie� et programme son prochain évènement interne, le retour en phase passive, au temps t=4.En E, le Neuron 1 reçoit le signal inhibiteur du Neuron 2 et le signal activateur du générateur. Il change sonétat interne, passant en phase �reçoit�. La somme des entrées et calculée : puisqu'elle est nulle le prochainévènement interne, le retour en phase �passive� est programmé au temps t=5. En F, le Neuron 1 changed'état et passe en phase �passive�.

Plusieurs paramètres peuvent être ajustés, en particulier le délai d'envoi de signaux par le générateur et

les seuils d'activation des neurones (qui peuvent être di�érents entre eux).

Il existe plusieurs archétypes de comportements mais l'idée importante réside dans le modèle

atomique de neurone. L'archétype de comportement sera ensuite construit en fonction des

40

Page 41: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 41

connexions entre les neurones et des seuils d'activations.

3.3.3 Études de réseaux de neurones

Après avoir conçu le modèle de base pour la simulation de réseau de neurone il faut maintenant coupler la

simulation par évènements discrets à la théorie des petits mondes. Pour cela nous avons créé une classe qui va

dans un premier temps générer un graphe dirigé selon les contraintes étudiées précédemment. Nous pouvons

dé�nir le nombre de n÷uds, le degré moyen du graphe ainsi que le type de graphe initial et le type d'algo-

rithme de partitionnement utilisé pour générer notre petit monde. Dans ce premier temps, lors de la création

du graphe les n÷uds sont directement des modèles atomiques de type neurone. C'est après la création de ce

graphe, dont les n÷uds sont des neurones que nous mettons en place le couplage : c'est-à-dire que nous al-

lons remplacer les arcs entre les neurones a�n d'obtenir des axones ayant une action inhibitrice ou excitatrice.

Dans le cerveau humain il existe à peu près 20% de connexions inhibitrices et 80% de connexions excita-

trices (Brunel, 2000). A partir de ces données nous avons donc aléatoirement remplacer 20% des arcs dans le

graphe par des axones inhibiteurs et 80% par des axones excitateurs.

41

Page 42: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Quatrième partie

Conclusion et perspectives

42

Page 43: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 43

Au cours de ce projet nous avons pu déterminer les contraintes nécessaires à une représentation des neu-

rones sous forme de graphe qui se rapproche de la biologie. Nous avons adapté l'algorithme de Watts et

Strogatz, permettant la génération de graphe de type petit monde, à la création de graphes petit monde

modulaires. Nous avons également entièrement implémenté un algorithme de partitionnement agglomératif

qui nous a permis d'avoir une vision plus large de l'évolution de la modularité. Cet algorithme s'est révélé

plus e�cace que l'algorithme classiquement utilisé (EBC) puisque sur le graphe de Zachary, exemple clas-

sique de partitionnement, notre algorithme a correctement classé la totalité des noeuds du graphe, tandis

que l'algorithme EBC classe un n÷ud dans la mauvaise communauté. L'adaptation de l'algorithme n'a, à

première vue, pas posé de problèmes : en e�et, les auteurs de l'algorithme utilisent une matrice représen-

tant la proportion d'arcs dans les communautés. Ne disposant pas d'assez d'informations dans l'article pour

comprendre comment implémenter l'algorithme de cette manière nous avons uniquement gardé le principe

de base : former des communautés à partir des n÷uds de plus haut degré et leurs voisins puis, de manière

classique, joindre les communautés par optimisation de la modularité. Après avoir implémenté ce nouvel

algorithme de partitionnement dans la librairie Jung, nous souhaitons contribuer au développement de cette

librairie open source en contactant l'équipe chargée de sa révision a�n de leur soumettre cet algorithme.

L'étude dans un premier temps sur des graphes non dirigés nous a permis de gagner du temps et de la

compréhension sur l'étude des graphes dirigés. Nous avons ainsi observé que l'évolution de la modularité se

comporte de manière légèrement di�érente entre des graphes dirigés et non dirigés : cette dernière apporte

plus d'informations sur la structure de la communauté dans le cadre des graphes dirigés. Les graphes dirigés

comportant une quantité plus importante d'informations sur les relations entre les n÷uds (de par l'orientation

des arcs) la modularité évolue de manière plus �ne.

Dans un second temps nous avons modélisé les neurones à l'aide du principe de la simulation par évène-

ments discrets et créé un modèle générique dont le comportement peut s'adapter en fonction des connexions

que le neurone reçoit et de son seuil d'activation. Finalement nous avons pu créer un modèle de simulation

associant le modèle de neurone lui-même à un réseau possédant les propriétés de graphe petit monde modu-

laire comme le réseau de neurone du réseau humain.

Ce projet doit se poursuivre par la simulation des neurones et l'étude de leur comportement en réseau à

proprement parler : l'objectif de ce stage était de véri�er l'hypothèse selon laquelle les assemblées de neurones,

qui peuvent être détectées dans le cerveau humain, correspondent à des groupes de neurones physiquement

détectables. C'est-à-dire qu'il s'agit de savoir si des modules comportementaux (les assemblées) correspondent

à des modules structuraux. Cependant, à l'heure actuelle le laboratoire ne dispose pas de données biologiques

su�santes pour étudier les assemblées de neurones. Ainsi nous avons commencé à écrire un programme

permettant de créer arti�ciellement des assemblées de neurones. Ce programme choisi certains neurones, les

rassemblent dans une assemblée et synchronise sur un certain laps de temps leur envoi de signaux. En e�et

plusieurs neurones font partie d'une assemblée si ils envoient tous un signal dans le même laps de temps et

ce de manière répétée. Ce programme doit encore être �nalisé, en particulier par rapport au laps de temps

utilisé pour déterminer la synchronisation des neurones. Il est important pour cela d'avoir accès à un minimum

d'enregistrements biologiques.

Nous souhaitons également développer un algorithme de partitionnement pour les assemblées de neurones.

Nous avons pensé à adapter la méthode du k-moyen : cet algorithme choisi dans un premier temps un certain

43

Page 44: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 44

nombre d'individus, les centres, (souvent 2) dans la population à partitionner (dans notre cas les neurones).

Selon la méthode classique, les autres individus de la population sont associés à chacun de ces centres en

fonction d'un critère de distance ou de similarité. Une fois les groupes formés des centres théoriques sont

calculés à partir de la moyenne des individus présents dans le groupe. Une nouvelle fois les individus sont

classés en fonction de leur distance ou similarité avec le centre. L'algorithme est ainsi répété jusqu'à ce

qu'aucun individu ne change de groupe.

Dans le cas des assemblées de neurones nous souhaitons utiliser un delta-temps comme critère de distance

et utiliser l'algorithme de manière dynamique au cours d'une simulation : sur la deuxième ou troisième ac-

tivation des neurones par exemple l'algorithme partitionne le réseau jusqu'à ce que les groupes soient �xés.

Sont gardés en mémoire les groupes et les centres déterminés par l'algorithme puis lors de la troisième ou

quatrième activation des neurones l'algorithme est de nouveau utilisé pour évaluer les groupes déjà formés et

ainsi de suite.

44

Page 45: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Cinquième partie

Compétences

45

Page 46: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 46

D'un point de vue technique, au cours de ce stage j'ai appris à renforcer mes connaissances en program-

mation Java et en particulier à programmer de manière la plus générique possible. Le fait de travailler à

plusieurs sur les mêmes feuilles de code m'a permis d'apprendre à utiliser un logiciel de versionning et à faire

attention à mon code ainsi qu'à proprement le commenter. Ce projet, interdisciplinaire, m'a aussi permis

de communiquer et de travailler avec des personnes non spécialistes de mon domaine et j'ai ainsi encore

développé mes capacités de communication.

D'un point de vue théorique j'ai pu étudier un peu plus profondément la théorie des graphes et découvert

la simulation par évènements discrets. Ce stage s'est aussi très fortement axé autour de la recherche biblio-

graphique et j'ai appris à être plus e�cace et précise dans mes recherches. La rédaction de mon rapport m'a

�nalement permis d'acquérir des compétences pour l'utilisation des logiciels LATEX et LYX.

Les objectifs initiaux du stage n'ont pas été atteints : nous avions mal évalué la complexité de la première

partie du projet. Cependant une fois cette partie terminée et bien évaluée beaucoup de problèmes conceptuels

ont été réglés pour la suite.

J'ai ainsi appris de ce stage à être la plus autonome possible notamment par le fait que mon tuteur de

stage se trouvait souvent en déplacement. De plus, le sujet de ce stage, en particulier la théorie des petits

mondes est un domaine peu connu de l'équipe dans laquelle je travaillais. J'ai du gérer mon temps de travail

et l'avancement du projet, les di�érents axes à explorer. Nous avons tenu des réunions régulièrement avec

mon tuteur de stage et j'avais donc des délais à respecter sur les di�érentes parties du projet ainsi que mes

résultats à présenter clairement. Nous avons souvent discuté ensemble des directions à prendre et j'ai vraiment

pu être active dans les décisions de ce projet.

Environ une fois par mois nous avons également tenu des réunions avec les autres chercheurs présents sur

le projet NeuroConf. Ceci m'a permis d'exposer mes résultats et d'en discuter avec des personnes extérieures

au domaine. J'ai trouvé ce genre d'interactions très enrichissantes. De plus ma formation d'ingénieur en

bioinformatique ajoutée à mon précédent master en biologie m'ont permis au sein de l'équipe de faire le lien

biologie-informatique sur ce projet ainsi que sur d'autres discussions.

J'ai e�ectué ce stage dans un laboratoire de recherche publique. Ces 7 mois au sein de ce laboratoire

m'ont permis de consolider mon projet professionnel et en particulier mon choix de me diriger uniquement

vers des entreprises privées. La recherche est un domaine qui me correspond tout à fait, mais la réalité de ce

métier dans le public me fait me diriger vers le privé. Ce stage m'a également permis de préciser le domaine

d'activité qui m'intéresse particulièrement en bioinformatique : l'algorithmique et l'utilisation des techniques

de data mining dans la modélisation des systèmes complexes.

Je tire de ce stage une grande satisfaction, autant par les techniques que j'ai apprises ou renforcées, que

par le challenge de travailler sur un sujet que je connaissais très peu en me retrouvant un peu isolée dans

l'équipe. J'ai du repousser encore les limites de ma compréhension, de mon autonomie et de mon adaptation

et ce fut l'un des stages les plus formateurs.

46

Page 47: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Sixième partie

Références Bibliographiques

47

Page 48: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 48

Abeles M., (1991). Corticonics : Neural Circuits of the Cerebral Cortex. Cambridge University Press.

Ahn Y.Y., Jeong H., Beom J.K (2006). Wiring Cost in the Organization of a Biological Network. Physica

A 367, 531-537.

Braitenberg V., Schüz A. (1991). Anatomy of the Cortex : Statistics and Geometry. Springer-Verlag Berlin.

Brunel N. (2000). Dynamics of Sparsely Connected Networks of Excitatory and Inhibitory Spiking Neu-

rons. Journal of Computational Neuroscience 8, 183�208.

Buhry L. (2010). Estimation de Paramètres de Modèles de Neurones Biologiques sur une Plateforme de

SNN Implantés In Silico. Thèse présentée à l'Université Bordeaux I.

Clune J., Mouret J.B., Lipson H. (2012). The Evolutionary Origines of Modularity. Proceedings of the

Royal Society B. 280(1755), 20122863.

D'Amelio M., Rossini P.M. (2012). Brain Excitability and Connectivity of Neuronal Assemblies in Alz-

heimer's Disease : From Animal Model to Human Findings. Progress in Neurobiology 99, 42-60.

Downes J.H., Hammond M.W., Xydas D., Spencer M.C., Becerra V.M., Warwick K., Whalley B.J., Nasuto

S.J. (2012). Emergence of a Small-World Functional Network in Cultured Neurons. PLoS Computational

Biology 8(5), e1002522.

Du H., Feldman M.W., Shuzhuo L., Xiaoyi J. (2007). An Algorithm for Detecting Community Structure

of Social Networks Based on Prior Knowledge and Modularity. Complexity 12, 53-60.

Eppstein D., Wang J. (2002). A Steady State Model for Graph Power Law. International Workshop on

Web Dynamics.

Erdös P., Renyi A. (1959). On Random Graph. Publ. Math. Debrecen 6, 290-297.

Euler L. (1741). Solutio Problematis ad Geometriam Situs Pertinentis. Commentarii academiae scientia-

rum Petropolitanae 8, 128-140.

Gerstein G.L. (1989). Neuronal Assemblies. IEEE Transactions on Biomedical Engineering 36(1), 4-14.

Girvan M. Newman M.E.J. (2002) Community Structure in Social and Biological Networks. PNAS 99(12),

7821�7826.

Guare J. (1990). Six Degrees of Separation : A Play. Vintage Books, New York.

Hodgkin A.L., Huxley A.F. (1952). A quantitative description of membrane current and its application

to conduction and excitation in nerve. Jour. of Physiology 117, 500�544.

Iturria-Medina Y., Sotero R.C., Canales-Rodriguez E.J., Aleman-Gomez Y., Melie-Garcia L. (2008). Stu-

dying the Human Brain Anatomical Network via Di�usion-Weighted MRI and Graph Theory. NeuroImage

40, 1064�1076.

Kwok H.F., Jurica P., Ra�one A. (2007). Robust Emergence of Small-World Structure in Networks of

Spiking Neurons. Cogn Neurodyn 1, 39-51.

Lapicque L.E. (1907). Recherches quantitatives sur l'excitation électrique des nerfs traitée comme une

polarisation . J. Physiol. Pathol. Gen 9, 620-635.

Leicht A.E., Newman M.E.J. (2008). Community Structure in Directed Networks. Phys. Rev. Lett. 100,

118703.

McCulloch W.S. and Pitts W.H. (1943). A logical Calculus of the Ideas Immanent in Nervous Activity.

Bulletin of Mathematical Biophysics 5, 115-133.

Milgram S. (1967). The Small-World Problem. Psychology Today 1(1), 61-67.

Newman M.E.J. (2004). Fast Algorithm for Detecting Community Structure in Networks. Phys. Rev. E

69, 066133.

48

Page 49: Étude de la Modélisation et Simulation de Neurones …maryvonnemerletbillon.com/Rapport_2013.pdf · We created a simulation model of neural network combining the constraints obtained

Maryvonne Merlet-Billon GB5 BIMB Chapitre 3 Page 49

Purves D., Augustine G.J., Fitzpatrick D., Hall W.C., LaMantia A.S., McNamara J.O., White L.E. (2011).

Neurosciences 4° édition De Boeck.

Raj A. and Chen Y. (2011). The Wiring Economy Principle : Connectivity Determines Anatomy in the

Human Brain. PLoS ONE 6(9), e14832.

Sohn Y., Choi M.K., Ahn Y.Y., Lee J., Jeong J. (2011). Topological Cluster Analysis Reveals the Systemic

Organization of the Caenorhabditis elegans Connectome. PLoS Computational Biology 7(5), e1001339.

Sporn O. (2011). Networks of the brain. MIT Press.

Touzet C, (1992). Les Réseaux de Neurones Arti�ciels : Introduction au Connexionnisme, Préface de

Jeanny Hérault, EC2 éd., Paris.

Wagner G.P., Pavlicev M., Cheverud J.M. (2007). The Road to Modularity. Nature Reviews Genetics 8,

921-931.

Watts D.J and Strogatz S.H. (1998). Collective Dynamics of �Small-World� Networks. Nature 393, 440-

442.

ZacharyW.W. (1977). An Information Flow Model for Con�ict and Fission in Small Groups. J. Anthropol.

Res. 33, 452�473.

49