16
Rev Cen Therm (1996) 35, 599-614 @ Elsevier, Paris ModWsation de skhoirs & tapis. Utilisation des rbeaux de neurones Alain Hugget*, Patrick Sebastian LEPT-ENSAM,esplanade des arts et metiers, 33405 Talence cedex, France (Regu le 3 juin 1996 ; accept6 le 28 octobre 1996) Abridged English version at the end of the text Summary - Modelling of convective layer dryers. Using neural networks. Dryer modelling is considered in this paper. A dryer scale approach is implemented in order to write the classical differential equations through parameters such as the heat transfer coefficient or drying kinetics. The behaviour of the dryers is described by a non-linear system which integrates these equations in a transfer network using the finite difference method. The finite difference method is easy to implement, but appears to be too slow for dryer designing. So, in the second part of the study, neural networks are used to model drying process in steady state. When applying neural networks method to the design of dryers, one of the main problems is to find necessary and suffkient inputs so that the neural networks can learn transfers laws. To reduce the problem, each output is defined by a single neural network and non-dimensional numbers are used. The following step deals with the determination of the number of neurones and the minimization of output error for each efficiency (change of training points). Then, neural networks are used to simulate different configurations of dryers. Results are compared with the finite difference method and an industrial application is studied in the last chapter. Keywords: dryer simulation, dryer design, heat transfer, mass transfer, transfer networks, module of transfer units, multilayer feedforward networks, topology of neural networks, change of training points R&sum4 - L’analyse fine du s&huge est complexe et done peu propice ci la conception de &choirs. La modelisation presentee se fait 1 l’echelle des pro&de’s, nous permettant d’krire les equations differentielles classiques du se’chage qui sont ensuite integre’es duns des modules d’unites de transferts (MUT, lieux ou s’effectuent /es transferts). Des reseaux de MDT permettent de modeliser simplement des circulations complexes de fluides ou de produits. Deux methodes d‘integration dans les MUT sont successivement presentees : un schema aux differences finies lent mais stable, puis une methode neuronale beaucoup plus rapide. Pour appliquer les reseaux de neurones au probleme du sechage avec les limitations de memoire des ordinateurs, l’une des difficultes majeures est de trouver les parametres nkessaires et suffisants permettant l’apprentissage des lois de trunsfert par les reseaux de neurones. Pour reduire le probleme, on utilise des nombres adimensionnels caractdristiques du sechoir ou des transferts qui s’y operent. L’dtape suivante consiste li de’terminer le nombre de neurones de chaque couche (algorithme de determination du reseau) et d’arriver b minimiser l’erreur sur chaque sortie des re’seaux de neurones (changements de points d’apprentissage). Afin de valider l’approche neuronale, plusieurs cas concrets sont traites ainsi qu’une application industrielle de skhage de boue. Mats-cl& : simulation de sechoirs, conception, transfert de chaleur, transfer? de masse, reseaux de transferts, module d’unites de transfer&, reseaux de neurones multicouches, nombre de neurones, changement de points d’apprentissage Nomenclature b biais du dseau de neurones Bi nombre de Biot thermique c chaleur massique . . . . . . . . . . . . . . . . . co module d’unit6s de transferts 9 co- courant ct module d’unit& de transferts & contre-courant e efficaciti utilis6e pour les dseaux de neurones E efficaciti classique * Correspondance et tir& & part J.kg-‘.K-’ ET FWI h Hr H, Y&T P 4 R t T u erreur flux-masse d’eau Bvapode coefficient de convection. . . . . . . . . . . humidit relative chaleur dcessaire B l’&aporation de l’eau et & son Bchatiement B la temperature de I’air. . . . . . . . . . . . . . . masse............................ nombre #unit& de transfer& p&im%re au tapis. . . . . . . . . . . . . . &bitmasse....................... type de r&eau de transfer& temps . . . . . . . . . . . . . . . . . . . . . . . . . . . . temperature...................... vitesse............................ W.mw2.K-’ J.kg_’ kg kg.s’ ; m.s-l 599 s

Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

Embed Size (px)

Citation preview

Page 1: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

Rev Cen Therm (1996) 35, 599-614 @ Elsevier, Paris

ModWsation de skhoirs & tapis. Utilisation des rbeaux de neurones

Alain Hugget*, Patrick Sebastian

LEPT-ENSAM, esplanade des arts et metiers, 33405 Talence cedex, France

(Regu le 3 juin 1996 ; accept6 le 28 octobre 1996) Abridged English version at the end of the text

Summary - Modelling of convective layer dryers. Using neural networks. Dryer modelling is considered in this paper. A dryer scale approach is implemented in order to write the classical differential equations through parameters such as the heat transfer coefficient or drying kinetics. The behaviour of the dryers is described by a non-linear system which integrates these equations in a transfer network using the finite difference method. The finite difference method is easy to implement, but appears to be too slow for dryer designing. So, in the second part of the study, neural networks are used to model drying process in steady state. When applying neural networks method to the design of dryers, one of the main problems is to find necessary and suffkient inputs so that the neural networks can learn transfers laws. To reduce the problem, each output is defined by a single neural network and non-dimensional numbers are used. The following step deals with the determination of the number of neurones and the minimization of output error for each efficiency (change of training points). Then, neural networks are used to simulate different configurations of dryers. Results are compared with the finite difference method and an industrial application is studied in the last chapter. Keywords: dryer simulation, dryer design, heat transfer, mass transfer, transfer networks, module of transfer units, multilayer feedforward networks, topology of neural networks, change of training points

R&sum4 - L’analyse fine du s&huge est complexe et done peu propice ci la conception de &choirs. La modelisation presentee se fait 1 l’echelle des pro&de’s, nous permettant d’krire les equations differentielles classiques du se’chage qui sont ensuite integre’es duns des modules d’unites de transferts (MUT, lieux ou s’effectuent /es transferts). Des reseaux de MDT permettent de modeliser simplement des circulations complexes de fluides ou de produits. Deux methodes d‘integration dans les MUT sont successivement presentees : un schema aux differences finies lent mais stable, puis une methode neuronale beaucoup plus rapide. Pour appliquer les reseaux de neurones au probleme du sechage avec les limitations de memoire des ordinateurs, l’une des difficultes majeures est de trouver les parametres nkessaires et suffisants permettant l’apprentissage des lois de trunsfert par les reseaux de neurones. Pour reduire le probleme, on utilise des nombres adimensionnels caractdristiques du sechoir ou des transferts qui s’y operent. L’dtape suivante consiste li de’terminer le nombre de neurones de chaque couche (algorithme de determination du reseau) et d’arriver b minimiser l’erreur sur chaque sortie des re’seaux de neurones (changements de points d’apprentissage). Afin de valider l’approche neuronale, plusieurs cas concrets sont traites ainsi qu’une application industrielle de skhage de boue.

Mats-cl& : simulation de sechoirs, conception, transfert de chaleur, transfer? de masse, reseaux de transferts, module d’unites de transfer&, reseaux de neurones multicouches, nombre de neurones, changement de points d’apprentissage

Nomenclature

b biais du dseau de neurones Bi nombre de Biot thermique c chaleur massique . . . . . . . . . . . . . . . . . co module d’unit6s de transferts 9 co-

courant ct module d’unit& de transferts &

contre-courant e efficaciti utilis6e pour les dseaux

de neurones E efficaciti classique

* Correspondance et tir& & part

J.kg-‘.K-’

ET FWI h Hr H,

Y&T

P 4 R t T u

erreur flux-masse d’eau Bvapode coefficient de convection. . . . . . . . . . . humidit relative chaleur dcessaire B l’&aporation de l’eau et & son Bchatiement B la temperature de I’air. . . . . . . . . . . . . . . masse............................ nombre #unit& de transfer& p&im%re au tapis. . . . . . . . . . . . . . &bitmasse....................... type de r&eau de transfer& temps . . . . . . . . . . . . . . . . . . . . . . . . . . . . temperature...................... vitesse............................

W.mw2.K-’

J.kg_’ kg

kg.s’

; m.s-l

599 s

Page 2: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

A Hugget, P Sebastian

W poids du reseau de neurones W teneur en eau. . . . . . . . . . . . . . . . . . .

2 coordonnee sur la longueur d’bchange.........................

Symboles grecs

cy coefficient de fonne du produit. 11 vaut 3 pour un produit plat et 5 pour un produit spherique

8 rapport de temperature ou de te- neur en eau A l’entr&e du module

Indices

1 2 a apP DF

P P-aPP

RN s surf t m

entree du tluide ou du prod& sortie du iluide ou du pro&it air points d’apprentissage methode des differences finies produit points en dehors des points d’ap- prentissage methodes des reseaux de new-ones set surface du prod& thermique massique

1 instant t 2 instant t + At

INTRODUCTION

Le sechage est une operation complexe et cotiteuse que l’on trouve dans de nombreux procedes industriels. Le but de cet article est d’aborder ce phenomene de transfer-is en gardant une logique simple et adaptable h la conception de sechoirs. Nous nous interesserons au cas particulier des &choirs contenant des tapis a co- et contre-courant, tres utilises dans l’industrie pour certains produits agricoles fragiles qui sont s&h& en couches minces par sechage convectif. L’etude se fera ii l’bchelle des procedes avec l’utilisation de modeles parametres megascopiques obtenus a partir de resultats experi- mentaux (cinetique de sechage, etc) [ll, approche devenue classique en genie du sechage.

Afin d’obtenir une grande flexibilite du logiciel final (assemblage de nombreux tapis, problemes de recirculation, etc), la logique des reseaux de transfer& de mat&e et d’energie est utilisee [ll. On y trouvera, en particulier, les unit& de trunsferts mettant en place un ensemble de modules dont les proprietes sont Bquivalentes a celles des elements du sechoir. L’integration des equations de sechage au sein de ces unites se fait par une methode inspiree des nombres d’unitks de transferts 111 qui, une fois simplifiee, se traduit par un schema aux differences finies, stable mais lent.

Les limitations engendrees par les temps de simulation nous ont ensuite amen6 a chercher

une autre methode de modelisation. Les reseaux bs de neurones, par leur rapidite d’interpolation de

fonctions complexes et une logique tres proche m des reseaux de transferts, sont apparus comme

la methode la mieux adaptee au probleme. Ceux- ci sont cornparables a des boites noires donnant directement les reponses eq fonction des entrees apres une phase d’apprentissage sur des exemples connus. Cette phase d’apprentissage est primordiale car elle permet au reseau d’adapter ses parametres (poids et biais) en fonction dun ensemble de couples #entree-sortie connus et controle ainsi la qualite de l’interpolation. Les reseaux neuronaux integrent les phenomenes de transfer& au sein de modules d’unit6s de transfer& a partir des resultats fournis par l’approche en differences finies en ne s’interessant qu’au cas du regime permanent, le plus souvent utilise en conception.

La modular&e induite par l’utilisation des reseaux de transferts ainsi que la rapidite de reso- lution des modeles utilisant des reseaux neuronaux nous permettront ensuite de traiter un exemple concret de &choir a trois tapis avec des circulations a co- et contre-courant pour le sechage d’une boue de carbonate. Eetude des differentes recirculations possibles d’air et de produit nous permettront de comparer les performances de chacun des reseaux et d’optimiser les transferts thennique ou massique.

1 I RiSEAUX DE TRANSFERTS DE MATlkRE ET D’tNERCIE

L’analyse microscopique du sechage est rendue difficile par la complexite des phenomenes mis en jeu. Le nombre de fonctions a determiner exp6rimentalement et les temps de calculs pour resoudre les equations sont importants et rendent difficile un travail de conception de sechoirs. Pour pallier ce probleme, on passe de l’echelle des processus a celle des procedes en construisant des modeles parametres simplifies bases sur une etude cinetique experimentale au caractkre le plus large possible. A cette Bchelle, le sechoir est modelise par l’assemblage de volumes de grande dimension definis par un coefficient de transfert moyen et une cinetique de sechage (fonction de parametres tels que la vitesse de l’air, la temperature de l’air, etc). La complexite des phenomenes Blementaires de sechage ne se retrouve plus alors que dans l’expression de la cinetique, et on peut ecrire simplement le systeme d’equations aux derivees partielles de conservation et de transferts.

Ce systeme est ensuite adimensionne et trans- pose dans un reseau de transfert assemblant des modules d’unites de transferts [2]. Ces modules sont connect& par des ar@tes vehiculant un fluide ou un solide et les variables qui lui sont propres (tempera- ture, teneur en eau, etc), voir figure 1. Le systeme

600 s

Page 3: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

Modelisation de s&choirs A tapis. Utilisation des rkseaux de neurones

adimensionnel ainsi obtenu permet de mettre en evidence des nombres adimensionnels caract&is- tiques du &choir en lui-m6me (rapport de debit- masse, rapport de masse thermique) ou de l’inten- site des phenomenes mis en jeu au sein du module (nombre d’unit6s de transfer& thermique ou massi- que). Par le biais des reseaux de modules d’unites de transfer-k, on peut modeliser des sechoirs avec des circulations extremement complexes de fluide ou de solide, en gardant une logique simple inspiree des reseaux Blectriques.

Tal,Wal Ta2,Waz

_=FE

TP~,WP~ TP~,WP~

+ Air

- - - + Produit

Fig 1. Exemple de module d’unitks de transfert (MlJT) B co-courant. Fig 1. Example of module of transfer units (MTU).

1 .l . MODULE DE TRANSFERT ET EQUATIONS DE CONSERVATION DU SiCHACE

En se plaGant a l’echelle macroscopique, le sechage peut etre vu comme un transfer-t forte- ment couple d’energie et de masse. Les Bchanges d’energie obtenus par convection for&e provoquent l’apparition d’un flux-masse d’eau qui s’exprime dans la cinetique de sechage. En consider-ant un volume de controle de longueur infinit&imale da pendant l’intervalle de temps dt, on peut k-ire les equations de transfer% de chaleur et de masse ainsi que les equations de conservation.

1.1 .l. Transfert de chaleur

On kit le modele convectif de Nusselt entre l’air et la surface du produit :

x -h . (T, - T,,rf) . p . dx

Le modele conductif de Fourier nous permet de relier la temperature de surface du produit (~,,,f) a 88 temperature moyenne (Tp) en envisageant une repartition parabolique des temperatures au sein du produit. On l’exprime par :

T 1

surf = TP + g . ~ a h.p.dx

qPs . C, . 2 . dx + dmps ’ c, . % >

1 .1.2. Transfert de masse

La cinetique de sechage a et6 obtenue P partir du sechage experimental dune boue de carbonate en couche mince exposee h l’action dun flux d’air [4]. Les resultats obtenus ont et6 corr6les de la maniere suivante :

Si Hr, < 100 % :

F,,, = 1,626 . U,“?”

0,005-(35,358~W,2-1,057~W,+1,472)+- a P 1

Si Hr, > 100 % :

F, = 0

- Domaine de ualiditd :

wa < Wa,sat 0,5 m.s-l < U, < 10 m.s-’

293 < T, < 368 K

Le transfer-t de masse relation qui suit :

est alors donne par la

awP qps. x .dx+dm,, . aw, _ - - -F,.p.dx at

1 .1.3. Conservation de Energie

En faisant le bilan d’energie sur l’air et le produit sur le volume de controle, on peut k-ire :

qas . C, .$ . dx + dmas .C aT, a’ at

=H.dm,,- qps~Cp~~~dx+dmp, .Cp.Z >

1 .1.4. Conservation de la masse d’eau

Elle donne :

aw, aw q~s~~~dx+dm,,~- at

=- ( awp qps . x . da: + dmps .awp at >

1.2. NOTION DE R~SEAUX DE TRANSFERTS

On definit ces reseaux de transfer-t comme un assemblage de modules connect& par des a&es, orientees ou non, et qui servent a la modelisation de machines oh s’effectuent des transfer& de chaleur ou de masse. Ces modules sont traverses par des circulations de fluides ou de solides ensuite port& dun module a l’autre par les ar&es. Les modules ou s’effectuent les transfer& thermique et massique sont appeles modules d’unitks de transferts (MUT). Suivant les Bcoulements de l’air et du produit, on a des MUT B co-courant, a contre-courant, 21 courants croises ou encore ii produit tie. Une autre

601 s

Page 4: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

A Hugget, P SCbastian

SECIWIR A TAPIS

Produit A &her

Produit set Enceinte du

&choir

Teneur en eau

Fig 2. Schoir a tapis et rkseau de transfert associk.

Fig 2. Dryer and associated transfer network.

sorte de module, les modules d%nit& de me’langes (MUM), sert h melanger ou a disperser des fluides ou des solides (entree ou sortie d’un &choir). Les reseaux de transfer& ont pour principal avantage de permettre facilement les transfer% entre des parties Bloignees des machines 6tudiees. Dam l’exemple du sechoir a quatre tapis de la figure 2, on n’utilise, dans le reseau de transfer-t associe, que des MUT B co- et B contre-courant ainsi que deux modules d’unites de melanges.

L%tude des reseaux de transferts passe par l’utilisation de reseaux Blementaires, independants du temps, avec des a&es orient&es, ne contenant que des MUT et qui n’ont qu’une entree et une sortie pour chaque fluide ou chaque solide qui y circule. A partir de cette famille servant de base, on peut faire des assemblages de reseaux elementaires, determiner les assemblages irreductibles ou encore reduire des reseaux complexes [51.

Les reseaux de transferts sont un outil simple et eficace pour l’expertise de .&choirs, d’echangeurs thermiques ou de toute autre machine oii s’effec- tuent des transfer& de chaleur et de masse.

RESEAU DE

TR4NsFERTs

Sortie Entie Enk& air produit air

Sortie produit

1.3. M~THODE D’INT~GRATION

L’int6gration du systeme d’equations au sein de chaque MUT se fait en s’inspirant de la methode des nombres d’unites de transferts [33. Neanmoins, cette integration dire&e des equations de transfer-k en r&ime instatiormaire &ant delicate a mettre en ceuvre dans beaucoup de cas, nous utiliserons

l Module d’Unit& de Melange

0 Module d’Unit6s de Transfert

-> Circulation de produit

-$N Circulation d’air

une formulation semblable, mais simplif%e, qui nous ramenera a un schema aux differences finies implicite en temps et centre sur chaque element. On fait l’hypothese classique de linear-it6 des variables entre l’entree et la sortie du module, et entre les instants t et t + At. Les notations utilisees sont les suivantes :

Ax et At &ant les pas de temps et d’espace utilises, on pose :

2 -t %=rx t=-&

Le systeme d’equations caractkistique du secha- ge devient alors :

- transfer% thermique :

dT, x . dz + U, . % . dz

--.-

% -NUTt . (T, - Tp). d3

- conservation de l’energie :

Htl =-. CtZ

p* . NUT,

- transfer% massique :

8W 2 . dz + U; . L?W

a55 -$ . dZ = -NUT,

602 s

Page 5: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

Modklisation de sckhoirs A tapis. Utilisation des reseaux de neurones

- conservation de la masse :

avec :

NUT

t = ht.p.Ax

!?as . ca NUT, = p.z’Ax

s

C T* = a

CL’ ’ CP

Une variable X variant dans l’espace et dans le temps est notee Xi, oti i prend les valeurs 1 ou 2 selon que la variable est consideree en entree ou en sortie du module, et ou j prend les valeurs 1 ou 2 selon que la variable est consideree a l’instant t ou a l’instant t + At. Les termes traduisant les variations de Xi dans le temps ou dans l’espace sont notes :

&=xf-x,’

variation dans le temps,

&=x;-x;

variation dans l’espace,

D2X = SX; - 6X; = 6X,2 - 6x2

variation dans le temps et dans l’espace.

En utilisant l’hypothese de linearit pour une variable X variant dans l’espace et dans le temps, on peut alors poser :

La resolution du systeme d’equations fmal se fait ensuite par la methode matricielle de Gauss totale.

2 I MkTHODE NEURONALE

Les reseaux de neurones sont devenus un outil d’ingenierie e&ace capable d’interpoler des fonc- tions complexes. Une fois la phase d’apprentissage terminee, ils sont integres dans des modules de lo- giciels deja existants et permettent de traiter des problemes oii les systemes classiques de traitement de l’information se r&&lent trop faibles [6,71. Dam le cadre de notre etude, la logique des reseaux neu- ronaux et celle des reseaux de transferts est identi- que, les neurones &ant remplaces par des modules d’unites de transfer&. La modelisation de MUT par l’approche neuronale semble done interessante en integrant des reseaux d’origine differente pour l’etude dun meme problbme. La rapidite d’interpo- lation de cette methode peut permettre de diminuer considerablement les temps de simulation, ce qui

est un atout majeur en conception. De plus, les modeles neuronaux se rapprochent de la logique du calcul parallele [8] et se tournent ainsi vers l’avenir.

2.1. MODULE DE NEURONE ET DE II&N

On regroupe sous le terme de reseaux de neu- rones, un certain nombre de modeles dont l’inten- tion est d’imiter des fonctions du cerveau humain en reproduisant certaines de ses structures de base. 11s sont constitues de nombreux processeurs sim- ples (les neurones) caracterises par leur fonction de transfer-t f et relies par des connections pond&es (poids w). On ajoute a chaque neurone un biais b (poids pond&ant une entree egale a 1) permettant de faciliter l’apprentissage dans certains cas cfig 3). Les for&ions que les neurones sont capables de remplir ne sont pas programmees, mais resultent dune cooperation entre ces multiples processeurs a la suite d’un processus d’apprentissage sur des exemples connus du probleme a resoudre [91.

Dans notre cas, nous les utiliserons pour trai- ter le probleme complexe du sechage en utilisant le logiciel MATLAB (Scientific Software) sur une station de travail de type SUN. Les caractkisti- ques principales des reseaux utilises et du type dapprentissage sont les suivantes.

- Type de rkseau :

Utilisation des reseaux multicouches avec deux couches cachees et une couche de sortie. Les reseaux a une couche interne sont ins&f&ants compte tenu de la complexite du probleme. Les reseaux recurrents (oti tous les neurones sont connect& les uns aux autres) donnent de bons resultats sur les points d’apprentissage mais interpolent mal la fonction en dehors de ces points.

- Fonctions de transfert :

On utilise deux fonctions tangente-sigmdide

f(x) = $$ pour les neurones des couches

internes et une fonction purement lineaire en sortie. Cette configuration nous a dorm6 les meilleurs resultats en apprentissage et en generalisation (en dehors des points d’apprentissage).

- Algorithme d’apprentissage :

Une fois que le reseau est dHini, on entre dans la p&ode d’apprentissage pendant laquelle le reseau va essayer d’apprendre une ou plusieurs rlgZes (ou relations) par corrections successives de ses poids et biais. Pour cela, on lui impose des couples d’entree- sortie (series d’apprentissage) et on modifie les poids et biais afin que la reponse retournee par le reseau converge vers les sorties reelles. Ualgorithme de retropropagation du gradient, le plus couramment utilise, ne permettra pas d’atteindre une pr6cision suffisante. Cette methode a tendance a oublier les series d’apprentissage precedentes quand le nombre de series est trop eleve. Nous avons done choisi l’algorithme de Levemberg Marquardt (methode matricielle) plus rapide et permettant de traiter,

603 s

Page 6: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

A Hugget, P Sebastian

---_ll-i_i Couche Couches Couche d’entrde cachkes de sortie

R&eau & couches Fig 3. Neurone formel et rkseau ?I couches. Fig 3. Synthetic neurone and multilayer feedforward network.

Ent= Cwi(k,j).cl; +bi(j) k-l.”

Neurone formel

2 neurones sur la couche cachCe 40 neurones sur la couche cachee 0.8

0.6

0.4

0.2

0

-0.2 Sortie -0.4

-0.6

-0.8

-I

-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 I

Entr6e

Points d’apprentissage: +

-0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1

Entrbe Sortie du rkseau: ~

Fig 4. Phknomenes d’underfitting et d’overfitting (reseau a une couche). Fig 4. Underfitting and overfitting phenomena (one layer network).

a chaque iteration, l’ensemble des couples entree- sortie. La loi d’evolution des poids est alors la suivante :

oii J est la matrice de Jacobi des derivees de chaque erreur sur chaque poids, p est un scalaire et er le vecteur erreur (difference entre la sortie reelle et la sortie retournee par le reseau). Si p est t&s grand, on retrouve l’expression de retropropagation du gradient, alors que si P est petit, cette expression devient la methode de Gauss-Newton. L’evolution de p depend de la convergence de l’apprentissage.

2.2. RECHERCHE DU NOMBRE DE NEURONES DE CHAQUE COUCHE

Une des inconnues fondamentales pour utiliser les reseaux de new-ones est le nombre de neurones sur les couches cachees. Celui-ci depend fortement de la complexite de la fonction a interpoler et de la configuration des entrees utilisees pendant

l’apprentissage. Si ce nombre de neurones est trop faible, le reseau ne convergera pas lors de l’apprentissage, il aura trop de donnees a apprendre et pas assez de neurones pour les stocker (uncterfitting). En revanche, si le reseau a trop de neurones, il convergera rapidement, mais, en dehors des points d’apprentissage, les reponses calculees seront mauvaises (overfitting) Cjig 4).

L’introduction dune metadynamique (evolution de la topologie du reseau) est rare pour les reseaux de neurones [lo]. 11 est en effet difficile de trouver des m-it&es permettant l’ajout ou le retrait de new-ones dans le reseau. Afln de determiner le nombre de neurones le mieux adapt6 au probleme d’ouerfitting d&-it precedemment, il faut optimiser la dimension du sous-espace de sortie de chacune des couches internes grace a un critere d’independance delta-lineaire entre l’entree et la sortie de la couche 111,121. Le critere d’independance delta-lmeaire utilise est d&lni par :

Soit la matrice A definie par les vecteurs a1,u2 ,... an,A = lalaz... a,\, ce groupe de vecteur est dit 6 lineairement independant si det(AtA) < 6.

604 s

Page 7: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

Modklisation de skchoirs h tapis. Utilisation des rkseaux de new-ones

En partant d’une topologie avec peu de new-ones (deux sur chaque couche interne), on fait croitre le reseau en ajoutant un neurone a la couche qui ne satisfait pas le wit&e apres la fin de l’apprentissage. Cette procedure est stoppee une fois que ce critere d’independance est v&if% pour les deux couches, on obtient ainsi l’algorithme de la figure 5.

I

I Apprentissage I

V+cation des performances du rPseau

d&(&+-s + Mi=Mi+l lnitialisation des

det(O’Oh.io>s 3 Mc=Mo+I > p&set biais

suppknentaires

I I I /

NON . I ‘Your

/ Rkeau fmal / / / \

Mi et MO : nombres de neurones des deux couches cachees ; I, matrice des sorties de la premiere couche pour toutes les series d’entrees ;,O, matrice des sorties de la seconde couche pour toutes les series #entrees

Fig 5. Algorithme de de’termination du rkseau. Fig 5. Network searching algorithm.

La difficulte principale reste alors de fixer le critere de convergence ou d’arret de l’apprentissage. 11 est frequent que la convergence soit t&s lente pendant un grand nombre de cycles puis rapide par la suite. Ainsi, un critere comparant I)erreur entre deux cycles peut done stopper l’apprentissage avant que le reseau ait converge. On prefere, dans notre cas, fixer le nombre maximum de cycles d’apprentissage 21 une valeur Blevee (x lo4 cycles) et supposer que, necessairement, le reseau aura atteint son minimum d’erreur apres ce nombre de cycles. Les temps de calcul pour d&erminer une topologie de reseau deviennent vite importants (24 h pour un probleme avec trois entrees et quatre points par entree).

Une seconde limitation vient du caractere alea- toire des poids et biais initiaux. Ainsi, pour une m6me serie de points d’apprentissage, l’algorithme precedent peut converger vers des reseaux quelque peu differents mais qui gardent la meme fox-me (plus

de neurones sur telle couche, etc). On utilisera pour l’application finale le reseau le plus frequemment trouve.

La figure 6 nous montre un exemple de determi- nation de topologie de reseau. A partir du reseau trouve (neuf neurones sur la premiere couche cachee et six sur la seconde), l’erreur calculee en dehors des points d’apprentissage commence h augmenter alors que celle calculee sur ces points continue a decroitre. On Bvite ainsi le phenomene d’overfitting vu precedemment.

Nombre de

neurones Erreur

1

0.1

0.01

0.001

0.0001

0.00001

0.000001

o.OOoOtX

1 2 3 4 5 6 7 6 9 10 II 12 13 14 15 16

Nombre de chrngemsnt de r6sew

- - -A- - - Nombre de neurones couche 1 ; - - -a- - - Nombre de neurones couche 2 ; __t_ Erreur points apprentissage ; __)__ Erreur hors points apprentissage

Fig 6. De’termination d’un rkseau de new-ones et erreurs associe’es (6 = 1O-2). Fig 6. Determination of neural network topology and associated errors (6 = 10e2).

2.3. APPROCHE NEURONALE DU SkCtiACE

L’utilisation des reseaux de neurones est ap- pliquee au cas d’un module d’unites de transferts en regime permanent. L’objectif est d’arriver a cal- culer les temperatures et teneurs en eau de sortie en fonction de ces memes variables en entree et des parametres du module (fig 7). L’un des problemes important qui se pose est la determination des entrees nfkessaires et sufj%antes au reseau pour ap- prendre les lois regissant les transfer& thermique et massique. En effet, l’algorithme de Levemberg- Marquardt, prenant en compte la serie entiere d’entrees-sorties pour l’apprentissage, utilise beau- coup de memoire et engendre ainsi une limitation de la taille des problemes pouvant Qtre trait&. On cherche done a minimiser le nombre d’entrees et de sorties ainsi que le nombre de neurones du reseau tout en gardant une precision elevee. L’utilisation directe des variables en entree du module et des parametres du reseau porterait le nombre dent&es a 14 ; en prenant trois points d’apprentissage par entree, on obtient 314 combinaisons d’entrees ce qui rend tout apprentissage impossible.

605 s

Page 8: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

A Hugget, P Sebastian

+ Air

-----> Produit

? .

Fig 7. Representation d’un MUT co-courant par un r6seau de neurones. Fig 7. Neural networks representation of an MTU.

Afin de reduire le nombre dent&es, on utilise les nombres adimensionnels de la partie 1.3, ca- racteristiques du tapis et des t;an~f~s qui s’y

\ al operent. On introduit aussi & = T,l + Tpl p1 permet-

tant de representer les temperatures en entree du module avec un seul nombre adimensionnel et ce, sans perte importante de precision. Un nombre si- milaire mais caracteristique des teneurs en eau ne pourra @tre utilise dans le m6me contexte sans engendrer une erreur importante. Cette contrainte impose l’utilisation directe des teneurs en eau d’air et de produit en entree du reseau de neurones.

Les sorties des reseaux de neurones sont constituees par les efficacites thermique et mas- sique sur l’air et le produit. Classiquement, ces efficacitks pour une variable X sont de la forme,

M(;;;;;l) et ne permettent pas d’abor-

der les cas ou les variables ont la meme valeur en entree pour l’air et le prod&. 11 est pourtant frequent d’avoir des croisements de temperature dans des &choirs a tapis [51. Afln d’eviter ce type de contrainte, les efficacitks liees a l’utilisation des reseaux neuronaux seront definies par :

e=E.e=abs (ZZJ

avec : 8 = 2l T ? Aal + Apl

En utilisant un seul reseau pour calculer les quatre efficacites massiques et thermiques sur l’air et le produit, le calage des poids et biais pour une seule de ces sorties destabilise les poids et biais pour mutes les autres. Si le couplage est trop fort, le probleme devient trop complexe pour un seul reseau, on &pare done le probleme en traitant le cas de chaque efficacite par un reseau de neurones Werent. La precision sur chaque sortie est alors augmentde ; en revanche, la modelisation d’un module d’unites de transferts necessitera l’apprentissage de quatre reseaux de neurones au lieu dun. On voit apparaitre dans

le tableau I, les entrees et leurs intervalles d’etude pour les quatre efficacites thermiques et massiques. Les equations donnees dans la partie 1.3 nous permettent directement de connaitre l’influence de chaque nombre sur chaque sortie. Les deux vitesses adimensionnelles ne sont pas prises en compte car on ne s’interesse qu’au cas du regime permanent. Les non-linear-it& qui sont liees aux vitesses reelles, en particulier a celle de l’air, sont importantes et apparaissent directement dans l’utilisation des coefficients de transferts. Par exemple, l’utilisation du nombre d’unites de transfer-t massique (NU!Z’~) lors de l’apprentissage permet de simuler un &choir sans connaissances explicites concernant la cinetique de sechage ou la vitesse de l’air. En revanche, lors de l’utilisation des reseaux neuronaux pour simuler un &choir concret, ces grandeurs doivent etre connues et permettent de retrouver les non-linearites qui leur sont liees au travers des nombres adimensionnels utilises.

TABLEAU I / TABLE I Entrees et sorties pour ch&ue riseau de neurones

Input and output for each neural network

Entrees Intervalle de I’enthe

Sortic

NUTI NU, CL* r* et et, OH1 0~0,010,5~20,1~2-0,01%0,18 etp

NUT, * 0~0~01 0,5%2

Wa WP ema 0*0,05 0,l H 1

NUT, * Wa WP emp 0*0,01 0~0,05 0,l H 1

Avec :

Taz - Tal eta = Tpl + Tal

Tp2 - Tpl

etp = T,I + Tpl wa2 - Wd WP2 - Wpl

ema = wp1+ W,l emp = wal + W,l

606 5

Page 9: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

ModClisation de &choirs A tapis. Utilisation des rbeaux de neurones

L’intervalle d’etude de chacun des nombres est choisi de maniere a pouvoir traiter le maximum de cas concrets sans avoir trop de series d’entrees aber-

C, rantes (par exemple, on a T* = - CL* .G

et C, = 1006 ;

si CL* = 0,l et Q-* = 0,l alors C, prend pour valeur lo5 ce qui est physiquement impossible).

Reste ensuite a trouver le nombre de points d’ap- prentissage pour chaque entree du reseau. Celui-ci est fondamental car il va, en grande partie, condi- tionner la qualite de l’interpolation. Une entree definie par deux ou trois points engendrera souvent une erreur importante en dehors de ces points. On doit tenir compte principalement de l’influence de l’entree sur la sortie (faible/forte, lineaire ou pas) et des limitations de la memoire. Les series de points d’apprentissage sont alors constituees de l’ensem- ble des combinaisons possibles des points de chaque entree.

Pour calculer l’erreur en dehors de ces points, on calcule une serie de points pris au milieu des precedents. C’est souvent cette erreur qui est determinante dans la comparaison de plusieurs reseaux de structures differentes.

Apres avoir simplifie au maximum le probleme initial, l’etude du sechage par reseaux neuronaux pose toujours des difficult& par le nombre de ses series d’entree. Par exemple, la determination des efficacitks thermiques n&es&e une entree com- posee de cinq nombres adimensionnels (tableau I). Les limitations de memoire nous ont alors limit4 a ne prendre que quatre points d’apprentissage par entree, soit 45 series de points en tout pour un reseau compose de huit et onze neurones sur les couches internes (tableau 1Z). Cette limitation entrafne une erreur en dehors des points d’appren- tissage qui reste elevee. Pour remedier a ce manque de precision, on fait un changement de series de points pendant l’apprentissage.

TABLEAU II / TABLE II Re’seau et nombre de points d’apprentissage maximum par entree pour chaque eficacite’ (8*11+8 neurones sur la premidre couche

cachte et 11 sur la seconde) Topology of neural networks and maximum

numbers of training points for each efficiency (8*11 a8 neurones on the first

hidden layer and 11 on the seconde one)

2.4. CHANGEMENTS DE POINTS D’APPRENTISSAGE

Afln d’utiliser un nombre important de points d’apprentissage tout en s’affkanchissant des

problemes inherents h la memoire, l’idee princi- pale a 6te d’utiliser plusieurs series de points et de faire un apprentissage periodique de n cycles sur chaque serie. De cette maniere, le reseau converge en utilisant les informations prises dans chacune des differentes series, provoquant ainsi une dimi- nution de l’erreur en dehors des points d’appren- t&sage. Par exemple, dans le tableau III, on voit que l’utilisation de trois series permet au reseau un apprentissage sur neuf points au lieu de quatre pour la mQme quantitk de memoire. On appliquera principalement cette methode pour l’apprentissage des efficacites oti le nombre d’entree est important.

Example for training points and outside sets for input p*

Une fois les series definies, on doit arriver 1 ce que le reseau converge en utilisant toutes les informations contenues dans chacune d’entre elles. Si le nombre de cycles d’apprentissage sur une serie (n cyck) est trop eleve, le reseau tiendra compte presque uniquement de ces points sans pouvoir ensuite assimiler les autres. En revanche, s’il est trop court, l’information de chaque serie pourra dil%cilement Gtre transmise au reseau qui ne pourra atteindre une erreur faible en sortie. Apres de nombreux essais, le changement de serie s’est revel6 le plus efficace pour des nombres de cycles ncycze compris entre cinq et dix. Un nombre de cycles superieur ou infkieur ne permet pas d’obtenir des diminutions importantes d’erreurs sur et en dehors des points d’apprentissage cfig 8).

3 I MISE EN CEUVRE DES RkSEAUX DE NEURONES

3.1. R~SULTATS DE LA PHASE D’APPRENTISSACE

L’apprentissage des quatre efficacites thermiques et massiques s’est fait en appliquant la procedure suivante :

- recherche du reseau approprie, - determination du nombre maximal de points

par entree,

607 s

Page 10: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

A Hugget, P Sebastian

Nombre de cycle 0 100 200 300 400

Nombre de cycle 0 100 200 300 400

. . . . .._ App

- Pas .__x_..App

(1 Ma)

app(1 he)

(3 s&e)

Erreur *Pasapp(3&ries) Erreur

a) Ncycle = 10 b) Ncycle = 20

Fig 8. Exemple d’apprentissage avec et sans changements de points. Influence de Ncycle (meme initialisation de poids et biais). Fig 8. Training example with or without training set change. Ncycle influence (same initialisation of weigths and bias).

TABLEAU IV / TABLE IV Erreur moyenne apr& apprentissage sur et en dehors des points d’apprentissage

pts_app + sur /es points d’apprentissage /pas_app + en dehors des points d’apprentissage Average error after training on and outside training points

pts_app +- on training points / pas_app + outside training points

Nombre Sortie

de Et, Etp E ma E WP shies

pts-app pas..app pts-app pas_app pts-app pas_app pts-app pas-vp

* *

- determination des differentes series de points d’apprentissage par le code en dif&-ences finies,

- apprentissage sur toutes les series de points.

L’apprentissage est fait un grand nombre de fois car la qualite de l’interpolation depend for- tement des valeurs initiales (prises aleatoirement) des poids et biais du reseau. Les erreurs minimales sur et en dehors des points d’apprentissage sont representees dans le tableau IV avec ou sans l’uti- lisation de I’algorithme de changement de points d’apprentissage. On y remarque que l’utilisation de plusieurs series de points permet de diminuer forte- ment lea erreurs (jusqu’a un facteur 10) par rapport a l’utilisation d’une seule serie de points.

3.2. APPLICATION A UN TAPIS

La simulation dun &choir a tapis a contre- courant permet de valider l’approche neuronale avec l’utilisation des nombres caracteristiques vus precedemment en comparant directement les

temperatures et teneurs en eau sur I’air et le pro- duit en sortie du tapis aux resultats donnes par le code en differences finies.

Toutes les simulations de &choirs presentees dans cette partie sont faites avec les parametres du tapis et les conditions d’entree pour l’air et le produit suivants :

Tal = 360 K Tpl = 280 K IV,1 = 0,001

W,l =0,9 CL* =l,O r* =0,25

On presente sur la figure 9 les simulations de tapis de longueur variable (de 3 & 60 m) en utilisant des modules de 1 m. Afin de comparer lea dew approches, on definit une erreur (%o) par rapport a la variation de la variable consideree deilnie par :

Avec :

E(%) = abs (XDF - XRN) . 1oo

XDF - xl

XDF, la valeur de sortie du reseau de la variable calculee par les difference furies,

XRN, la valeur de sortie du reseau de la variable calculee par les reseaux de neurones,

Xl, la valeur d’entree de la variable consideree.

608 s

Page 11: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

Modelisation de s&choirs a tapis. Utilisation des r-beaux de neurones

WW 4

3.5 3

2.5 2

1.5

1

0.5

0 0 10 20 30 40

Nombre de modules

50 60

Fig 9. Erreur entre les differences finies et les reseaux neuronaux suivant le nombre de modules (de longueur 1 m). Fig 9. Error between finite difference and neural networks methods (length of MTU = 1 m).

120

100

80

60

40

20 0,

0 IO 20 30 40 50 60 70 80

Nombre de module

Fig 10. Temps de simulation par les rkseaux de neurones en fonction du nombre de modules. Fig 10. Simulation time for neural networks method versus module number.

90

Cette erreur ne depasse pas 4 % de la variation de la variable consideree, soit 0,5 K pour une varia- tion de 15 K. Cette precision est suffisante pour pouvoir comparer precisement les sorties de plu- sieurs ensembles de tapis assembles les uns aux autres afin d’optimiser les transfer& de chaleur ou de masse. D’autre part, on peut noter que les er- reurs obtenues pour la determination des tempera- tures restent nettement superieures a celles des teneurs en eau comme l’indique deja le tableau III. Il faut relier cette difference a un nombre d’entrees plus Blew5 mais aussi au fort couplage transfer-t thermique-transfer-t massique qui ressort de l’equa- tion de conservation de l’energie, rendant ainsi plus complexe la determination des temperatures et done, l’apprentissage du reseau.

Sur la figure 10, on remarque que les temps de calcul restent faibles quel que soit le nombre de modules utilises. Par exemple, le temps pour trouver le regime permanent dun &choir associant neuf tapis avec dix modules par tapis (soient 90 en tout) est inferieur a 2 min sur un ordinateur de type DX4*100.

On ne peut comparer directement les temps de calcul de la methode des differences finies a ceux de la methode neuronale car l’un travaille en instationnaire et l’autre en regime permanent. En revanche, il est facile de comparer le nombre

doperations Blementaires (addition, multiplication et division) necessitk par chacune des methodes pour calculer les efficacitks. En utilisant la methode neuronale, le calcul de la sortie d’un reseau de neurones avec N entrees, Sl et S2 neurones sur les couches cachees et un new-one sur la couche de sortie, exige un nombre d’operations de :

Iv.S1+ Sl.S2 + s1+ 2.s2 + 1

Avec les nombres de neurones du tableau III, le calcul de toutes les efficacit& d’un module necessite 500 operations.

Le schema aux differences finies utilise la methode de Gauss totale pour determiner les quatre efficacites. Pour un reseau de transfer-t avec n modules, le nombre doperations Blementaires est de l’ordre de (4.n13.

On peut representer le nombre d’operations elementaires en fonction de la methode et du nombre de modules utilises cfig 11). A partir de quatre modules, la methode des reseaux de neurones utilise moins d’opkrations que celle des differences finies ; si le nombre de modules depasse 20, le rapport entre les deux methodes devient superieur a 1000. La croissance de la methode neuronale est en effet lineaire alors que l’algorithme de Gauss presente une croissance polynomiale d’ordre 3.

609 s

Page 12: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

A Hugget, P Sebastian

Nombre d’ophations 6Ymentaires

0 5 10 15 20 25 30

Nombre de module r--.

Fig 11. Comparaison du nombre d’op&ations el&mentaires entre les deux mkthodes. Fig Il. Comparison of the number of elementary operations between both methods.

El (X)

IO 20 30 40

Nombre de module

Fig 12. Simulation de tapis de diffkrentes longueurs. Erreur entre les methodes de diffkences finies et de reseaux de neurones sur TP. Fig 12. Simulation of dryers with various lengths. Error between finite difference and neural networks methods on TP.

Pour obtenir une approximation 6ne en utilisant un schema aux differences finies, on doit utiliser un pas d’espace petit et done multiplier le nombre de MUT du reseau de transferts. A6n de comparer cette approche a celle de la methode neuronale, on d&k& l’erreur El entre la sortie du modele utilisant les r&eaux de new-ones et une sortie XrCel calculee le plus precisement possible (differences finies avec Ax < 1 m) :

W%) = abs (XRN - .&eel) .1,,o

x r&l -

x1

La figure 12 presente cette erreur sur TP pour des tapis de differentes longueurs suivant le nombre de modules utilises. A l’inverse des differences fkries, en utilisant la methode neuronale, il est preferable de prendre peu de modules de grandes dimensions (Ax 2 1) que beaucoup de modules plus courts. Pour les trois tapis simules, la plus faible erreur est trouvee pour une longueur de MUT de 4 B 5 m, valeur qui se retrouve sur la figure 13. Sur cette derniere figure, on peut aussi observer que l’apprentissage se fait moins facilement sur les petits modules avec l’erreur la plus importante (06 %I pour un module de 0,l m.

4 n APPLICATION : OPTIMISATION D’UN SiCHOlR A TROIS TAPIS

Dans cette application, le sechage en continu dune boue de carbonate avec une teneur initiale en eau de 0,6 est etudie (debit de produit humide, 4,32 t/j). Le sechage n’altkant pas la qualite du produit, le but final est d’optimiser le transfert de masse pour obtenir une teneur en eau en sortie faible. Afin d’utiliser au mieux l’energie contenue dans le fluide sechant, on peut imaginer de8 recir- culations de l’air et du produit entre les differents tapis relies les uns aux autres. Dans le cas de trois tapis de 3 m a co- et contre-courant (avec une seule entree d’air et de produit), on obtient alors 48 reseaux differents notes R(i, j) avec i qui caractkrise les types de tapis utilises et j, l’ordre de passage du produit dans chaque tapis. Lea ta- pis sont numerotks de 1 a 3 suivant le passage de lair &chant dans le tapis, ainsi R(i, j) est defini par le tableau V. Pour I’ensemble du &choir, on a les

610 s

Page 13: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

ModClisation de skchoirs A tapis. Utilisation des t-beaux de neurones

El(%)

4 6

Longueur du module (m)

Fig 13. Erreur pour un MUT en fonction de sa longueur. Fig 13. Error for a MTU versus its length.

Notations pour /es paramdtres

Notations for transfer network R

parambtres des tapis et les conditions d’entree pour l’air et le produit suivants :

Tal = 360 K TPl = 280 K WaI = 0,001 WPI = 0,6

/.L* = 1,O T* = 0,25 [NUTIt = 2,23 [NUT], = 0,135

Afin d’avoir une bonne precision, on prend trois modules d’unites de transferts de 1 m pour chaque tapis. Le temps de calcul du regime permanent par la methode neuronale est inf&ieur a la seconde, ce qui permet de tester tous les cas rapidement. Les resultats sont repr&3ent& sur la figure 14 oti on peut observer les efficacites globales sur l’ensemble du &choir en fonction de la configuration du reseau de transfert.

avec,

c E&(4 Al it, _ i,j E id

48 np =

48

Les deux reseaux extremes R(l, 1) et R(8,6) Suivant le besoin, on peut done favoriser le correspondent a des tapis co- et contre-cow-ant transfer-t thermique aux depens du transfert de de 9 m. On remarque que le tapis a co-courant masse ou inversement, ou encore optimiser les deux va favoriser le transfert de masse en chauffant a la fois (tableau VII. Les recirculations d’air et de le produit d&s son entree, provoquant ainsi une produit ont une forte influence sur les efficacites intense evaporation. Le tapis a contre-courant, globales (jusqu’a 25 %) et permettent d’adapter le quant a lui, chauffe beaucoup plus le produit mais reseau de transfert au type de sechage desire.

-TP

-Ta

.__*_-_. Wa

.._)(___wp

uniquement sur la fin, avec done une evaporation faible sur une longueur importante du tapis. Ces deux cas permettent de voir l’ordre de grandeur des efficacites optimales, de l’ordre de 69 % pour le transfert thermique et de seulement 9,3 % pour le transfert de masse.

11 apparait clairement que le transfer-t de masse se fait aux depens du transfert de chaleur et vice versa. Cette preference pour l’un ou l’autre des transferts se fait suivant l’ordre de passage du produit dans les trois tapis et la nature de ces tapis. Les efficacites thermiques les plus faibles sont obtenues quand le produit est admis par le tapis 1 (j = 1 et 2) et il est done chauffe fortement au debut puis plus faiblement par la suite. Cette temperature Blevee du produit a la sortie du premier tapis favorise le transfert de masse dans les tapis suivants. A l’inverse, si le produit entre par le tapis de sortie de lair, l’evaporation ne se fera que sur la fin du &choir et restera done faible. Si l’on veut avoir un compromis entre les deux transferts, l’on pourra utiliser les reseaux R(i, 3) oii le produit entre par le tapis 2 et sort par le 3 @g 15). Les transferts thermique et massique presentent alors simultanement une forte intensite. Pour comparer les deux transfer& d’intensite differente, on utilise Q definie par :

611 s

Page 14: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

A Hugget, P SCbastian

i I 2 3 4 5 6 1 8

i 1 2 3 4 5 6 1 II

6.8

j

Fig 14. Efficacites thermique et massique pour les rbeaux R(i,j).

Fig 14. Thermal and mass efficiency for R(i, j) networks.

2345612345612345612345612 123456123456123456

1 2 3 4 5 6

i

Fig 15. Test des rbeaux pour optimiser les transferts thermique et massique. Fig 15. Networks tests to optimize heat and mass transfer phenomena.

TABLEAU VI / TABLE VI RCseau R adapt6 b chaque type de transferr

Network R for each transfer

Pour le cas de la boue de carbonate Btudie, il est preferable d’utiliser un seul tapis a contre-courant afhr d’obtenir une teneur en eau t&s faible en sortie. La mSme approche peut Btre menee pour des prod&s differents et suivant d’autres objectifs qui favoriseront une autre configuration de &choir.

5 I CONCLUSIONS ET PERSPECTIVES

Les reseaux de modules d’unites de transferts constituent un outil facile 21 mettre en oeuvre et

i

- i=l (co I co /co)

-c-i3 (co/et/co)

._.&._ i=a(ctIctIct)

permettent d’&udier des structures complexes de sechoirs. En revanche, les methodes num&iques classiques, pour resoudre les equations au sein des modules, restent une barrier-e a leur utilisation par la lourdeur des calculs engendres.

L’utilisation des reseaux de neurones, dans ce cadre, a permis de diminuer fortement les temps de simulation pour arriver au regime permanent, permettant d’obtenir un outil de conception rapide. Elle a aussi permis de mettre au point des ou- tils efficaces pour ameliorer les performances de l’apprentissage en trouvant la topologie du rdseau adaptee au probleme et en changeant les series de points d’apprentissage. Cette methode d’interpo- lation se revele efficace mais necessite de lourds moyens informatiques quand le nombre de series de points d’apprentissage est important. La preci- sion des rkmltats permet de valider l’utilisation des nombres adimensionnels caractkistiques du sechoir et des transfer& qui s’y operent. Les nom- bre d’unitks de transferts massique et thermique y sont prepond&ants en influencant directement le couplage entre les dew phenomenes et en condition- nant ainsi la facilite qu’aura le reseau de’ neurones a en faire l’apprentissage.

612 s

Page 15: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

Modklisation de sechoirs A tapis. Utilisation des reseaux de neurones

L’association de ces deux logiques de reseaux permet de faire une approche du sechage tournee vers la conception de sechoirs alliant rapidite et flexibilite. Les nombres adimensionnels Btudi& (entrees des reseaux de neurones) permettent d’aborder directement les parametres du &choir et des transferts qui s’y operent, parametres qui conditionnent la structure du &choir. En quelques secondes, une structure complexe peut ainsi @tre testee et adaptee aux contraintes de temperature et de teneur en eau exigees pour le produit final.

Une approche similaire, mais basee sur une etude experimentale dun produit inconnu, permet- trait de concevoir le sechoir en fonction du produit et des crit&res de sortie desires, sans jamais abor- der la physique complexe qui caracterise le sechage (exemple : determination neuronale de la cineti- que de flux masse en fonction de quelques points experimentaux). Cette Btape superieure tend vers la solution de la boite noire donnant directement la reponse en fonction de l’entree pour un probleme precis.

Cette etude se poursuit par l’etude du r&ime instationnaire de &choirs h tapis par les reseaux de neurones. Aux entrees precedentes, il faut ajouter des vitesses adimensionnelles U,’ et U; ainsi que des nombres caracteristiques de l’etat des modules suivant et precedant le module Btudie. L’utilisation de moyens informatiques plus importants devient alors necessaire.

RiFiRENCES

[l] Nadeau JP, Puiggali JR (1995) Sfkhage : des processus physiques aux proctide’s industriels. Ed TEC&DOC

[2] Sebastian P, Nadeau JP, Puiggalli JR (1993) Les reseaux de modules d’unites de transferts thermique, massique, outils pertinents d’analyse de sechoirs. Int J Heat Mass Transfer 36, 1763-l 772

[3] Sebastian P, Nadeau JP, Puiggali JR (1993) Les nombres d’unites de transferts, thermique, massique, outils rapides de simulations de sechoirs. Int j Heat Mass Transfer 36, 1773-l 782

[4] Nadeau JP, Puiggali JR (1990) La simulation, we aide d la conception d’un stkhoir. Actes de ren- contres <<Innovation energetique et industrie agro- alimentaires,,, CEE-DCE et AFME

[S] Sebastian P (1992) Analyse de re’seaux de transferts : application b /‘expertise de s&choirs. These de doctorat, Universite de Bordeaux I

[6] Lucas T (1995) Les reseaux de neurones a I’heure de maturite, L’Usine Nouvelle 25 18, 49

[7] Laperrousaz P (1995) L’Usine Nouvelle 2522, 44-45

181 Tank D, Hopfield J (1988) Les reseaux de neurones formels. Pour /a Science 124, 80-89

191 Davalo E, Naim P (1989) Des re’seaux de neurones. Ed Eyrolles, Paris

[lo] Renders JM (1994) Algorithmes ge’ne’tiques et rkeaux de neurones. Ed Hermes, Paris

[l l] Wang Z et al (1994) A procedure for determining the topology of multilayer feedforward neural networks. Neural Networks 7, 291-300

[12] Wang Z et al (1992) Multilayer feed forward neural networks : a canonical form approximation of non- linearity 56, 655-672

ABRIDGED ENGLISH VERSION Nodelling of convective layer dryers. Using neural networks

The design of a dryer usually involves previous knowledge of the product, the process and the kind of equipment to be used. Dryer modelling will be considered in this study because modelling is the primary step in equipment design, thus in its optimization. In this paper, we consider a thin layer of product, dried by a hot air current with known properties. A dryer scale approach is implemented in order to write the classical differential equations through parameters such as heat transfer coeficients or drying kinetics. The behaviour of the dryers is described by a non-linear system which integrates these equations in a network of transfer with the finite difference method. The links between modules of this kind of network can be complex and can represent complex circulation of liquids and solids. Transfers between fluids and solids occur in modules called module of transfer unit (MTU). A MTU has one input and one output for both air and product.

In figure 2, a dryer and its associated network of transfer are illustrated.

The finite difference method is easy to implement, but too slow for dryer designing. So, in the second part of the study, neural networks are used to model steady-state drying process. Neural networks become an important tool in modelling, designing and controlling various processes. Their training and generalisation properties confer them the full power of a self organising system. A neural network is formed of synthetic neurones (each characterized by a transfer function called f) linked by weighted connections. The characteristics of neural networks used are the following.

- Network :

Multilayer feedforward network with two hidden layers. Recurrent networks give bad results out of training points.

613 s

Page 16: Modélisation de séchoirs à tapis. Utilisation des réseaux de neurones

A Hugget, P Sebastian

- Transfer function : Tan-sigmoid transfer and linear function are

used respectively for the two hidden layers and the output one ; Tan-sigmoid function is defined by:

ekx-1 f(x) = -.

ekx+l

- Learning algorithm: Backpropagation algorithm is not efficient for

this problem due to the number of input-output set ; Levenberg-Marquardt method, an approximation of Newton’s method, makes the training give better re- sults. This optimisation technique is more powerful than gradient descent, but requires more memory.

When applying neural networks method to drying, one of the main problems is to find necessary and sufficient inputs so that the neural networks can learn heat and mass transfer laws. In fact, the number of parameters and variables of MTU result in 14 inputs (ht, Cp,T,l, etc). Since the network requires at least three learning points per input, 3’4 sets of input-output are necessary which makes the training phase impossible. To reduce the problem, each output is defined by a different neural network and following numbers are used:

-Input:

p* = qps qas

NUTt = s as a

T,I - T,I et = T,I + T,I

- output:

Tae - T,I eta = Tpl + Tal Tpz - T,I

etp = Tal + Tpl

wae - Wal ema = w,1+ W,l e wpe - Wpl mp = w,1+ W,f

The following step deals with the determination of numbers of neurons of each hidden layer and the minimization of output error for each efficiency.

In order to reach an optimal approximation of continuous functions, the topology of multilayer feedforward neural networks must be known. So, we intend to optimise the size of the output sub-space of each hidden layer with the &linear independency criterion (see part 2.2). This procedure provides a practical approach for reaching the single best approximation for the considered function thus avoiding overfitting phenomena.

To decrease the computed error outside learning points (with the memory limitation), the learning algorithm uses several sets of data points. Each one is learnt during five to ten cycles and allows to increase the number of learning points with the same size of training matrix.

Table IV shows output errors of each neural network after the learning phase with or without change of data series.

Then, neural networks are used to simulate different configurations of dryers. The results are compared with the finite difference method and show a good precision (error under 4% of the considered variable variation). Moreover, the CPU time with a DX4 / 100 necessary to find the steady regime is lower than 2 s for a dryer with 90 MTU; time is no longer a limit to design dryers.

An industrial application is developed in the last chapter with the drying of a mud. We studied all the associations of three dryers with recirculation of air and product. The optimal transfer network is determined to dry or to heat this mud (fig 11).

614 s