6

Click here to load reader

Les élèves de CM1

Embed Size (px)

Citation preview

Page 1: Les élèves de CM1

03.22AVRIL

ISS

N1

28

6-9

39

2

Les élèves de CM1Premiers résultats

d’une évaluation internationale

en lecture (PIRLS)

L’enquête PIRLS (Progress in

International Reading Literacy

Study) a été réalisée en 2001dans trente-cinq pays pour mesurer

les performances en lecture desélèves achevant leur quatrièmeannée de scolarité obligatoire.

Les élèves français obtiennent unscore de 525, soit 25 points de

plus que la moyenne fixée à 500.Bien qu’ayant obtenu un score

supérieur à la moyenne,la France occupe un rang médiandans l’enquête. Douze pays, dont

la Suède, l’Angleterre et l’Écosse,les Pays-Bas, l’Italie, l’Allemagne

et les États-Unis font mieux qu’elle.En France, les écarts filles-garçons

sont nettement moins marquésque dans les autres pays.

Comparées aux résultats obtenusà une étude analogue de 1991,les performances de la France,comme celles des États-Unis,

paraissent avoir subi une légère érosion.En outre, il est patent

que les élèves françaissous-estiment leurs capacités.

En juin 2001, trente-cinq pays ontparticipé à l’enquête internationalePIRLS (Progress in International

Reading Literacy Study) organiséepar l’IEA (Association Internationale pourl’évaluation du rendement scolaire) envue d’évaluer les performances en lecturedes élèves achevant, en général, leur qua-trième année de scolarité obligatoire. Ceniveau représente, en effet, un moment im-portant dans les apprentissages des élèves.À cette étape de leur scolarité, ils approfon-dissent leurs compétences en lecture et li-sent dès lors pour apprendre. Il est prévu dereconduire cette étude en 2006, ce qui de-vrait permettre un suivi de l’évolution desrésultats dans le temps avec un intervallede cinq années.

UNE ÉVALUATION DES ÉLÈVESDE QUATRIÈME ANNÉEÉLÉMENTAIRE

La population cible de cette enquête estprécisément définie comme « la classe su-

périeure parmi les deux classes consécuti-

ves comptant le plus d’élèves de 9 ans ».

Dans la plupart des pays il s’agit de la qua-trième année d’école obligatoire ; c’est lecas en France (CM1) 1. Cette population necorrespond pas à une génération d’élèvesd’un âge défini, comme, par exemple, dansle programme PISA (Programme interna-tional pour le suivi des acquis des élèves) del’OCDE 2.

Il est entendu qu’un certain nombred’élèves âgés de 9/10 ans se trouvent dansune autre année d’études. Mais ce qui estvisé par l’enquête c’est de mesurer les per-formances de l’ensemble des élèves pré-sents à un niveau déterminé de la scolaritéquels que soient leur âge, leur parcours etl’organisation du système éducatif (pro-portion d’élèves en retard, etc.). Le ta-bleau I donne, pour chaque pays, l’âgemoyen des élèves au moment de la passa-tion. La moyenne d’âge internationale estde 10,3 ans ; pour la France, elle est de

www.education.fr

TABLEAU I – Âge moyen des élèves de chaque pays

Âge moyen Pays

De 9,7 ans à 10,1 ans Chypre, Islande, Belize, Écosse, Italie, Slovénie, Grèce, Koweït, Canada(O,Q), Israël, Norvège, France, Nouvelle-Zélande, Singapour

De 10,2 ans à 10,6 ansAngleterre, Argentine, États-Unis, Hong-Kong, Turquie, Pays-Bas, Fédérationde Russie, République Slovaque , Iran, Allemagne, Colombie, RépubliqueTchèque

De 10,7 ans à 11,2 ans Hongrie, Macédoine, Moldavie, Suède, Bulgarie, Lituanie, Lettonie,Roumanie, Maroc

1. À noter que pour la Slovénie, il s’agit de latroisième année et que pour l’Angleterre, l’Écosseet la Nouvelle-Zélande de la cinquième annéed’école obligatoire.2. Voir à ce sujet « Les élèves de 15 ans – Premiersrésultats d’une évaluation internationale des ac-quis des élèves (PISA) », Note d’Information 01.52,MEN-Direction de la programmation et du dévelop-pement, décembre 2001.

Page 2: Les élèves de CM1

10,1 ans. L’écart maximal entre lesmoyennes d’âge des deux pays les plus éloi-gnés de cette moyenne est d’un an et demi(Chypre 9,7 ans – Maroc 11,2 ans). De tel-les différences d’âge ne sont pas sans effetsur les performances.

UNE ÉVALUATION QUI ENVISAGELES OBJECTIFS DE LA LECTURE

L’objectif premier de l’étude est d’évaluerla « compétence en lecture ». Celle-ci est dé-finie comme : « L’aptitude à comprendre et

à utiliser les formes du langage écrit que

requiert la société ou qui sont importants

pour l’individu. Les jeunes lecteurs peu-

vent construire du sens à partir de textes

très variés. Ils lisent pour apprendre,

pour s’intégrer dans une société où la

lecture joue un rôle essentiel et pour leur

plaisir. » Le lecteur mobilise toute unegamme de capacités, de stratégies cognitiveset méta-cognitives ainsi que ses connaissan-ces préalables des objets abordés.

Les épreuves de PIRLS résultent de la sé-lection des propositions établies sur la basede cette définition et les items retenus ontété validés par un groupe d’experts.

L’étude pose comme hypothèse que lacompétence en lecture est directement liéeaux raisons qui incitent le lecteur à lire.C’est pourquoi le test dans son ensemble aété bâti sur le croisement de deux aspects :les compétences et les objectifs de la lecture.

Les compétences

Au nombre de quatre dans l’étude, ellessont évaluées par des questions de compré-hension portant sur chacun des textes pro-posés aux élèves. Tout au long del’évaluation, une combinaison de ques-tions permet de vérifier que les élèves maî-trisent ces compétences qui leurpermettent de construire du sens à partirdes textes écrits. Ces compétences sont lessuivantes :

– prélever des informations explicites

(Prélever) (20 % des items), exemples de tâ-ches illustrant ce type de traitement : repérerles informations directement liées à l’objectifde la lecture ; chercher des idées précises ;chercher la définition de mots ou d’expres-sions ; repérer le contexte de l’histoire (épo-que, lieu…) ; trouver l’idée principale (sielle est exprimée explicitement) ;

– faire des inférences directes (Inférer)

(40 % des items) : déduire que tel événe-

ment a entraîné tel autre ; déduire l’élé-ment principal d’une série d’arguments ;déterminer le référent d’un pronom ; repé-rer les généralisations présentées dans letexte ; décrire la relation entre deux per-sonnages ;

– interpréter et assimiler idées et in-

formations (Interpréter) (25 % desitems) : déduire le message global ou lethème d’un texte ; envisager une alterna-tive aux actions des personnages ; compa-rer des informations du texte ; saisirl’atmosphère ou le ton du récit ; trouverune application concrète aux informationscontenues dans le texte ;

– examiner et évaluer le contenu, la

langue et les éléments textuels (Apprécier)

(15 % des items) : évaluer la probabilitéque les événements décrits se passent réel-lement ; décrire la manière dont l’auteur aamené la chute ; juger de l’intégralité oude la clarté des informations fournies dansle texte ; décrire comment le choix des ad-jectifs modifie le sens.

Les objectifs de lecture

Deux des objectifs les plus fréquents deslectures faites par les jeunes élèves à l’écoleet ailleurs, structurent également l’en-quête PIRLS :

– lire pour accéder aux textes littéraires

(50 % des items), la forme des textes utili-sés principalement dans ce contexte est lafiction narrative. Le lecteur aborde le textepour s’investir dans des événements, des si-tuations, des actions, des conséquences,des personnages, une atmosphère, des sen-timents, des idées imagées et pour appré-cier la langue en soi ;

– lire pour acquérir et utiliser des in-

formations (50 % des items), les textes in-formatifs se présentent sous de nombreusesformes ; ils peuvent présenter l’informa-tion suivant ou non une logique chronolo-gique. Au moyen de ces textes le lecteurs’informe sur des aspects de l’univers réelpour comprendre le monde tel qu’il est,mais il peut également aller plus loin etappliquer les informations obtenues à unraisonnement ou à une action.

CONSTRUCTION DES SCORES

Une échelle de score a été élaborée enutilisant des modèles statistiques particu-liers (modèles de réponse à l’item : MRI) ;Cette approche permet de distribuer les per-

formances des élèves sur une même échellemême si, individuellement, ils ont répon-du à des tests différents (cf. PIRLS 2001

Technical Report). La moyenne interna-tionale est fixée à 500 et l’écart type à 100.Ceci signifie qu’environ deux tiers des élè-ves ont un score compris entre 400 et 600.Le choix de cette échelle est arbitraire, maisson intérêt est de permettre de classer lespays sur une dimension commune. Oncomprend que cette méthodologie metl’accent sur une évaluation « relative » desperformances (comparaison de pays àpays), même si l’aspect évaluation « abso-lue » du niveau des performances n’est pastotalement absent.

Sur la base du score international, cinqniveaux de performances ont été créés puisassociés par les experts internationaux àdes degrés de maîtrise des compétences etdes stratégies de compréhension de l’écrit.La répartition des élèves selon ces niveauxpermet d’avoir une idée de la dispersion desrésultats.

RÉSULTATS GÉNÉRAUX

Quelle comparaison retenir ?

Sur l’ensemble de l’évaluation, la France sesitue de manière statistiquement significativeau-dessus de la moyenne des participants : lesélèves français obtiennent un score moyen de525, soit un quart d’écart type au dessus de lamoyenne internationale (graphique 1 p.3).

Les meilleurs résultats sont obtenus par laSuède, avec un score de 561, qui avec les Pays-Bas (554), l’Angleterre (553) et la Bulgarie(550) constituent le groupe de tête. À l’autreextrémité de l’échelle, le Koweït (396), le Ma-roc (350) et Belize (327) sont les trois pays

Comme le montre le graphique 1 p.3,quelques pays sont très en retrait parrapport aux autres. La moyenne inter-nationale est très sensible à ce phé-nomène : de ce fait certainesinformations concernant la France nepeuvent être montrées par la seuleanalyse des performances moyennes.C’est la raison pour laquelle, dans lasuite de cette Note, l’essentiel desanalyses sera formulé en terme derang. Même si les rangs ne permettentpasde rendre comptedesécartseffec-tifs entre les pays, ils se révèlent unoutil utile pour apprécier le niveau desélèves français par rapport à celui desélèves des autres pays.

NOTE D’INFORMATION 03-22 Page 2

Page 3: Les élèves de CM1

dont le score moyen est à plus d’un écarttype de la moyenne internationale.

Il est à noter que dans tous les pays del’étude, les filles obtiennent des résultats si-gnificativement supérieurs à ceux des gar-çons. C’est néanmoins en France et en Italieque cette différence est la moins marquée.

Bien qu’ayant obtenu un score moyen su-périeur à la moyenne internationale, laFrance occupe un rang médian dans l’en-quête. Douze pays font, en effet, significative-ment mieux qu’elle, quinze font moins bienet sept ont des performances comparables.

Cette situation s’explique par le fait queles quelques pays qui, en bas du classe-ment, obtiennent des résultats très faibles,tirent la moyenne internationale vers lebas. Il est possible d’estimer les scoresmoyens globaux de différents regroupe-ments de pays (tableau II). Lorsqu’ons’intéresse à d’autres groupes de pays (parexemple, proches d’un point de vue géo-graphique ou économique), les résultatsfrançais (525) se retrouvent en deçà desnouvelles moyennes de référence. (Le tra-vail approfondi d’analyse à paraître dansLes Dossiers reviendra sur cette question).

Une dispersion moyenne

Au-delà du niveau moyen de performan-ces, il est intéressant de se pencher égale-ment sur la répartition des élèves, pour voirdans quelles proportions ceux-ci se situentdans les niveaux de performances extrê-mes. Pour la France, l’écart type de la dis-tribution est de 70 et les résultats des élèvesfrançais sont assez peu dispersés. 10 %d’entre eux sont classés dans le plus basniveau de performances alors que ce tauxest plus élevé pour les pays dont la réussitemoyenne est de même niveau que celle dela France (13 % en Écosse, 16 % en Nou-velle-Zélande). À l’inverse, 9 % des élèvesfrançais se situent dans le niveau des per-formances le plus haut, ce qui est le cas de14 % des élèves écossais et 17 % des néo-zé-landais. Toutefois d’autres pays de cegroupe de performances voisines montrentdes distributions plus resserrées que celle

de la France (Fédération de Russie, écarttype 66 et Hong-Kong, 63).

Quelle évolution depuis 1991(enquête « Reading Literacy ») ?

Reading Literacy est certainement l’en-quête internationale qui se rapproche leplus de PIRLS. Elle a aussi été conçue etpilotée par l’IEA. La population cible étaitsensiblement la même, la méthodologie del’évaluation était conçue selon les mêmesprincipes, la collecte des informations sui-vait le même modèle et les analyses étaientbasées sur la même méthodologie. Cepen-dant, la comparaison reste difficile, « Rea-

ding Literacy » est une enquête ancienne(dix ans), les épreuves étaient différenteset, de surcroît, ce ne sont pas tout à fait lesmêmes pays qui y ont participé.

En effet, parmi les vingt-cinq pays de« Reading Literacy » 1991 et les trente-cinq de PIRLS 2001, seize seulement ontparticipé aux deux programmes.

Parmi ceux-là, seuls sept, dont la France,ont pratiqué les deux évaluations avec desélèves d’âge moyen quasi identique et aumême niveau scolaire. Il est donc possible,mais en termes relatifs seulement, d’observerl’évolution du comportement de ces sept paysd’une enquête à l’autre. Il semble que Chy-pre, Hong-Kong et l’Italie se soient mieuxcomportés en 2001 qu’en 1991 par rapportaux quatre autres pays de ce sous-groupe ;que la Slovénie et la Nouvelle-Zélande s’ensortent de la même manière et, enfin, que lesperformances des États-Unis et de la Franceaient subi une légère érosion, toujours encomparaison de ce groupe de sept pays.

RÉSULTATS DÉTAILLÉS

Des résultats très variablesselon les items

La position de la France cache des per-formances variables selon les activités pro-posées. L’analyse des résultats par itempermet de mettre en évidence cette variabilité :

TABLEAU II – Regroupement de certains pays

Scoremoyen global

Union européenne 2001 (7 pays sur 15) 541

Union européenne 2004 (14 pays sur 25) 534

Pays de l’OCDE (Organisation de coopération et de développement économiques) (16 pays sur 30) 529

Lecture : ce tableau présente le score moyen global obtenu par différents regroupements de paysauxquels la France appartient. Ainsi, le score moyen des sept pays de l’Union européenne présents dansl’étude est de 541.

Suède

Pays-BasAngleterre

BulgarieOntarioLettonieHongrie

États-UnisItalieAllemagneQuébec

ÉcosseFrance Grèce

IslandeRoumanieIsraël

SlovénieNorvège

ChypreMoldavie

Turquie

Macédoine

ColombieArgentine

Iran

Koweït

Maroc

Belize

320

370

420

470

520

Nlle-Zélande

R. Slovaque

Hong-Kong

500

560

GRAPHIQUE 1 – Classementdes pays évalués dans PIRLS

Lecture : les résultats des pays dont le nomfigure en italique ne sont pas significativementdifférents de ceux de la France.

NOTE D’INFORMATION 03-22 Page 3

Page 4: Les élèves de CM1

en effet, pour un peu moins de 10 % desitems testés (9 sur 98), la France se classeparmi les cinq premiers pays alors qu’ellese situe dans les dix derniers pour 11 autresitems.

Sur l’ensemble des 98 items de l’épreuve,les élèves français réussissent moins bien à19 items, de manière significative par rap-port à la moyenne internationale. À l’in-verse leurs performances sontsignificativement supérieures pour 64items. Au total, on note donc pour laFrance un comportement qui s’écarte de lamoyenne internationale dans 85 % des cas.Ces constats incitent à la prudence quant àl’interprétation de ce classement constituépar l’agrégat de résultats disparates.

Les élèves français réussissentlégèrement mieux les items portantsur les textes « littéraires »

Pour chacun des deux objectifs de lec-ture (lire pour accéder aux textes littéraires– textes narratifs ; lire pour acquérir et uti-liser des informations – textes informa-tifs), une échelle de score a été construiteavec une moyenne internationale fixée à500. Le graphique 2 rend compte de la dis-tribution de la plupart des pays sur ces deuxéchelles indépendantes. Il permet d’appré-cier la performance de la France relative-ment aux autres pays. La France sepositionne au-dessus de la moyenne inter-nationale dans chacun des deux cas. Elle

est cependant mieux classée en compré-hension de textes à caractère informatif(13ème place dans le palmarès internatio-nal) qu’en compréhension de texte de typenarratif (19ème place). Il est intéressant denoter que d’autres pays se comportent àl’inverse : par exemple, les États-Unis quipartagent la 13ème place, ex aequo avec laFrance sur les textes informatifs, sont en re-vanche à la 4ème place en ce qui concerne lestextes de type narratif.

En scores bruts, les élèves français ob-tiennent des résultats légèrement supé-rieurs à l’ensemble des items de ladimension « littéraire » qu’à l’ensemblede ceux de la dimension « informative »,ce qui semble cohérent avec les déclara-tions des enseignants de l’enquête sur leurspratiques de classe.

En résumé, bien que les élèves françaisréussissent mieux sur l’ensemble des itemsportant sur des textes narratifs que sur l’en-semble des items portant sur des textes in-formatifs, la comparaison internationaleplace la France dans une meilleure posi-tion sur ce dernier objectif de lecture.

Des résultats différentsselon les compétences

Comme pour les objectifs de lecture, ilest possible de créer une échelle de scoresen fixant la moyenne à 500 pour chacunedes quatre compétences que distingue l’en-quête (« prélever », « inférer », « interpré-ter », « apprécier »).

Les trois premières compétences portentsur le traitement des informations, conte-nues explicitement ou non dans le texte,dans le but de construire le sens d’unephrase dans son contexte ou, plus large-ment, du texte dans son ensemble. Danstous les pays, les items de la compétence« prélever des informations explicites »sont en moyenne mieux réussis que ceuxde la compétence « faire des inférences di-rectes », eux-mêmes mieux réussis que lesitems de la compétence « interpréter et as-similer idées et informations ».

La quatrième compétence, qui porte surdes aspects métalinguistiques de la com-préhension, a un statut un peu particulierde par ce contenu même qui impose àl’élève un effort de distanciation et du faitégalement du moindre nombre d’items quila composent. Elle est en moyenne, et pourtous les pays, légèrement mieux réussieque la compétence « interpréter ».

Chypre

Norvège

SlovénieIslandeMoldavie

Israël

Roumanie

GrèceRépublique slovaque

Nouvelle-Zélande

ÉcosseSingapour

Fédération de RussieFrance États-Unis

ItalieRépublique Tchèque

Hong-KongHongrieAllemagne

LithuanieCanada

Angleterre

Lettonie

Bulgarie

Pays-Bas

Suède

ChypreSlovénie

Norvège

IsraëlRoumanieRépublique slovaque

Hong-KongFrance

Islande

Fédération de Russie

GrèceSingapourÉcosse

Nouvelle-Zélande

Republique Tchèque

AllemagneLettonie

Italie

CanadaLithuanie

HongrieBulgarieÉtats-Unis

Pays-Bas

AngleterreSuède

490

500

510

520

530

540

550

560

Texteslittéraires

Textesinformatifs

GRAPHIQUE 2 – Classement des paysselon le score obtenu aux deux objectifs de lecture

Lecture : les résultats des pays dont le nom figure enitalique ne sont pas significativement diférents de ceuxde la France. Pour des questions de lisibilité, certainspays ne figurent pas sur le graphique.

NOTE D’INFORMATION 03-22 Page 4

Page 5: Les élèves de CM1

Comme le montre le graphique 3, lesclassements des pays restent généralementstables d’une échelle à l’autre : c’est le casde la France qui se positionne au-dessus dela moyenne internationale pour ces quatrecompétences et dont le classement varie dela 20ème place en ce qui concerne la compé-tence « interpréter » à la 16ème pour lacompétence « inférer ». « Faire des infé-rences directes » est donc la compétencepour laquelle les élèves français sont lemieux classés au niveau international(score 524).

Néanmoins, pour certains pays, on ob-serve des variations significatives. Ainsi, laplupart des pays anglophones obtiennentun bien meilleur classement dans les com-pétences « interpréter » et « apprécier ». Àl’inverse, l’Allemagne est bien mieux clas-sée pour les compétences « prélever » et« inférer ».

Les supports textuels et lesformats de questions jouent unrôle dans les résultats

– Supports textuels

Les différences de réussite selon la compé-tence ou l’objectif de lecture n’expliquent pasentièrement la variabilité des performances.Si la grande majorité des textes proposés dansPIRLS sont d’origine anglo-saxonne, ils nesont pas censés pour autant favoriser tel paysplutôt que tel autre. Un pré-test a permisd’écarter les supports aux caractéristiquespsychométriques les plus faibles et un effortimportant a porté sur la qualité de traductiondes épreuves dans les différentes langues dutest. Néanmoins, les pays montrent une sen-sibilité différente aux textes retenus.

Ainsi, pour la France, parmi les huit tex-tes de PIRLS, deux sont particulièrementbien réussis par les élèves ; ils obtiennent demeilleurs résultats que la moyenne inter-nationale à tous leurs items. Pour l’un, in-formatif, il s’agit d’un dépliantpublicitaire présentant les prestations d’unloueur de vélos et proposant un plan depiste cyclable. La France pour ce support seclasse à la 3ème place. Pour l’autre, de typenarratif, il s’agit d’un fabliau animaliertiré d’un conte populaire indien et laFrance s’y classe en 10ème position. En re-vanche, pour un autre texte narratif, LaFrance obtient le 26ème score seulement.

Le Québec, seule autre communauté fran-cophone de l’étude, obtient des places respec-tives à ces trois supports qui suiventglobalement la même hiérarchie. On perçoit

donc que langue et culture conservent unecertaine influence malgré tous les effortsméthodologiques qui tendent à l’atténuer.

– Formats de questions

« Prélever » fait plus souvent appel auxquestions à choix multiples (dans 60 % descas), alors que « interpréter » demandeplus souvent de développer un raisonne-ment et exige généralement une réponseconstruite et plus longue (63 %). Dans cecas, une compétence en production del’écrit vient s’ajouter à celle de compréhen-sion. L’analyse des résultats des élèvesfrançais tend à montrer qu’ils sont très lar-gement influencés par le format de ques-tion mis en jeu. Lorsqu’on compare lesscores moyens obtenus en isolant d’unepart les questions à choix multiple (QCM)et d’autre part les questions qui demandent

un développement écrit, les élèves françaisréussissent mieux quand le mode de ré-ponse requis n’implique pas le recours àl’écrit construit et ce, quelle que soit lacompétence. Cette sensibilité des élèvesfrançais au format de question n’est pasdifférente de celle observée pour l’ensem-ble des élèves de l’étude.

Une analyse de variance intégrant lesdeux aspects « compétences » et « formatsde questions » pour expliquer le niveau dedifficulté des items, met en évidence le rôlesignificatif que jouent ces deux variables.Pour la France, elles expliquent à elles seu-les 35 % de la variance. L’influence des for-mats de questions, bien que nonnégligeable, est cependant moins marquéeque celle de la compétence qui, à elle seule,explique plus de 30 % de la variance.

Norvège

Moldavie

Slovénie

Chypre

République TchèqueRépublique Slovaque

Roumanie

Islande

Fédération de Russie

Can-QuébecFrance

AllemagneBulgarie

HongrieNouvelle-ZélandeGrèce

LituanieHong-Kong

Italie

États-UnisOntarioSuède

Angleterre

Pays-Bas

Slovénie

Chypre

Norvège

Islande

République SlovaqueRoumanie

Israël

France

Fédération de RussieÉcosse

Hong-KongGrèce

Allemagne

Nouvelle-ZélandeItalie

Quebec

Lettonie

HongriePays-BasÉtats-Unis

Angleterre

Suède

Bulgarie

Moldavie

Chypre

Norvège

Roumanie

Israël

IslandeHong-Kong

Grèce

Nouvelle-Zélande

ÉcosseFrance

QuebecSingapour

Italie

États-UnisBulgarieAllemagneAngleterre

Ontario

Pays-Bas

Hongrie

Suède

Chypre

IsraëlMoldavie

RoumanieNorvège

Nouvelle-ZélandeIslande

Slovénie

QuebecFrance

États-Unis

GrèceFédération de RussieOntarioHong-KongHongrieRépublique Slovaque

Angleterre

Italie

BulgarieLettonieAllemagne

SuèdePays-Bas

480

490

500

510

520

530

540

550

560Prélever Inférer Interpréter Apprécier

GRAPHIQUE 3 – Classement des paysselon le score obtenu pour chaque compétence évaluée

Lecture : voir note du graphique 2.

NOTE D’INFORMATION 03-22 Page 5

Page 6: Les élèves de CM1

Directeur de la publicationClaudine PERETTIRédactrice en chefFrancine LE NEVEUMaquette et impressionDPD édition & diffusion

SERVICE VENTEDPD,édition & diffusion58 bd du Lycée, 92170 VANVES

ABONNEMENT ANNUELFrance : 42,69 eurosÉtranger : 45,73 euros

– Absence de réponse

De manière générale, les élèves françaisont une forte tendance à s’abstenir de ré-pondre aux questions ouvertes.

Il est vrai qu’au niveau international,on observe que plus la réponse à apporterdoit être élaborée et demande un dévelop-pement écrit, plus le taux d’absence de ré-ponse augmente. La France se distinguenéanmoins des autres pays par l’amplitudedu phénomène. Avec 1 % en moyenne d’ab-sence de réponse à l’ensemble des QCM, laFrance obtient le 7ème plus faible taux. Enrevanche, sur l’ensemble des questions ap-pelant une réponse construite, elle se re-trouve en 23ème position avec un taux10 fois plus élevé. Si l’on s’intéresse spéci-fiquement aux questions qui demandentles réponses écrites les plus élaborées, ellepasse même à la 26ème place. Cette ten-dance avait déjà été révélée par l’enquêtePISA 2000 3 ; les hypothèses envisagéesalors étaient les éventuelles difficultésd’expression écrite, le probable manque desollicitation sur ce type de questionne-ment, la crainte possible de fournir une ré-ponse fausse et un certain manque deconfiance en soi de la part des élèves.

LES ÉLÈVES FRANÇAISSE SOUS-ESTIMENT

Le dispositif d’évaluation de PIRLS étaitaccompagné de questionnaires. Celui des-tiné aux élèves avait pour but de recueillirleurs comportements et leurs attitudes faceà la lecture. En fonction des réponses, unindicateur a été construit pour apprécier laproportion d’élèves ayant une attitude po-sitive face à la lecture.

Comme on pouvait s’y attendre, dans tousles pays, plus les élèves perçoivent favorable-ment la lecture et plus leurs résultats à l’éva-luation sont élevés. Pour cet indicateur, laFrance se place en 9ème position, avec prèsde 60 % des élèves ayant une attitude trèspositive vis-à-vis de cette activité.

Un autre indicateur montre commentles élèves perçoivent leurs propres capacitésen lecture. Les élèves ont une opinion deleurs capacités qui reflète la réalité puisqueceux qui s’estiment le plus compétents sontceux qui obtiennent les meilleurs résultatset inversement.

Directionde la programmationet du développement

Il est très frappant cependant de remar-quer que, dans l’ensemble, les élèves fran-çais se sous-évaluent par rapport à leurscamarades des autres pays. Ainsi, sur cetaspect, la France se classe seulement à la31ème position sur les trente-cinq pays, cequi est loin du rang obtenu en ce qui concerneles performances.

Le manque de confiance en soi des élèvesfrançais, dont on a fait plus haut l’hypo-thèse qu’il avait une influence sur leurs ab-sences de réponse, se confirme ici.

Marc Colmant et Aude Mulliez,

DPD D1

CadrePIRLS (Progress in International Reading Literacy Study) est pilotéepar l’IEA (Association internationale pour l’évaluation du rendementscolaire) et mise en œuvre par l‘International Study Center du BostonCollege. Les trente-cinq pays participants sont les suivants : Allema-gne, Angleterre, Argentine, Belize, Bulgarie, Canada, Chypre, Colom-bie, Écosse, États-Unis, Fédération de Russie, France, Grèce,Hong-Kong, Hongrie, Iran, Islande, Israël, Italie, Koweït, Lettonie,Lituanie, Macédoine, Maroc, Moldavie, Nouvelle-Zélande, Norvège,Pays-Bas, République Tchèque, République Slovaque, Roumanie,Singapour, Slovénie, Suède, Turquie.

L’échantillon

En France, l’enquête porte sur un échantillon de 145 écoles élémen-taires. Le tirage de l’échantillon tient compte de la taille des écoleset de quelques caractéristiques (public/privé ; ZEP/hors ZEP). Ausein de chaque école, et suivant sa taille, une ou deux classesentières ont été retenues. L’échantillon français regroupe 3 538élèves effectivement évalués, répartis au sein de 221 classes.Au niveau international, l’échantillon porte sur près de 5 600 écoleset 146 000 élèves.

Les procédures de passationLa mise en œuvre de l’enquête est basée sur des procéduresstandardisées afin de garantir la comparabilité des résultats :désignation de responsables de l’enquête dans chaque établis-sement, respect des consignes de passation, procédures decontrôle, etc. L’évaluation, de type « papier-crayon », est fondéesur la technique dite des « cahiers tournants ». Les textes et leursquestions ont été répartis dans neuf cahiers d’évaluation diffé-rents en ménageant des parties communes. Cesneuf cahiers ontété distribués aléatoirement aux élèves qui avaient deux fois40 minutes pour y répondre. Ce procédé a ainsi permis de testerl’équivalent de plus de 5 heures d’évaluation sans allonger letemps de passation individuel.

Les correctionsLes questions à réponses construites ont été corrigées par ungroupe d’enseignants formés à cette tâche, suivant des consi-gnes internationales strictes. Dans chaque pays, un lot de ca-hiers a subi une double correction permettant de vérifier le degréd’accord des correcteurs. En France, le pourcentage d’accordsentre correcteurs est très élevé (96 %). Au niveau international,il est de 93 %.

MÉTHODOLOGIE

Volume à paraître dans la collectionLes dossiers, MEN-Direction de laprogrammation et du développement.Le site Internet de l’étude :http://isc.bc.edu/pirls2001.htmlIl est possible d’y télécharger lesdocuments suivants :PIRLS Framework , mars 2001,ISC Boston CollegePIRLS Technical Report, mai 2002,ISC Boston CollegePIRLS 2001 Encyclopedia,septembre 2002, ISC Boston College(guide de référence des systèmeséducatifs des pays participants)PIRLS 2001 International Report,avril 2003, ISC Boston College

POUR EN SAVOIR PLUS

3. Voir la note 2.

NOTE D’INFORMATION 03-22 Page 6