Organisation des tests Adapt-Snes

(pour information : nous ne testons plus de CD)

Publié le 2009

Malgré le développement de l’Internet, le support cédérom continue d’offrir des
possibilités intéressantes, distinctes de ce qu’apporte le
réseau, mais il est difficile de repérer les titres
intéressants, de connaître les possibilités réelles des
produits proposés, faute de pouvoir les feuilleter comme un
livre en librairie. En outre de nombreux logiciels de qualité
sont distribués (difficilement) en dehors des grands labels qui
dominent le marché. En organisant ces tests, Adapt répond à
une demande pressante de collègues soucieux de
l’intégration des outils multimédia dans
l’enseignement et préoccupés par le risque d’investir dans
des achats qui s’avéreraient décevants.

Comment les tests
sont-ils organisés ?

L’opération fait appel à de
nombreux collègues bénévoles qui examinent les produits
présélectionnés.

Nous négocions le prêt de
cédéroms présélectionnés auprès des éditeurs. Chaque
produit est envoyé à trois testeurs bénévoles ayant, autant
que possible, des compétences complémentaires. Il est chaque
fois testé selon la même grille d’analyse. Une
synthèse descriptive et critique est ensuite réalisée par un
collaborateur de l’équipe d’ADAPT. Les conclusions sont
mises en ligne pour un accès libre. L’objectif, pour tout
cédérom retenu, est d’en faire comprendre l’intérêt
et les limites. C’est délibérément que nous
n’attribuons pas de note globale. On peut faire du bon
travail avec un produit perfectible, s’il répond à un
besoin.

Les testeurs sont sollicités par
la presse syndicale. Nous tenons à confronter des regards
différents sur un même produit ; aussi faisons-nous appel
tant à des enseignants peu versés dans les techniques
informatiques ou audiovisuelles qu’à des formateurs en
informatique, des spécialistes, des auteurs de produits
multimédias : les premiers sont souvent très exigeants
sur le contenu et la facilité d’exploitation, les seconds
plus à même d’apprécier l’originalité d’un
cédérom ou ses limites au regard de ce qui aurait pu être
fait.

Quels sont les
principaux critères d’évaluation ?

 La valeur du contenu
est appréciée selon sa richesse, son exactitude et son
adaptation éventuelle à nos enseignements.
 Les possibilités
liées à la nature de l’outil multimédia -navigation,
recherches possibles, interactivité, diversité des parcours,
séquences 3D, utilisation en ligne, etc.- sont examinées avec
un souci constant d’estimer leur efficacité comparativement à
des outils plus "classiques", d’identifier la
"valeur ajoutée".
 Les aspects
pédagogiques sont particulièrement suivis : traitement des
réponses fausses aux tests autocorrectifs, possibilité pour
l’enseignant de modifier ou créer données ou exercices,
réponse nouvelle à un problème d’apprentissage, etc.
 On vérifie certains
aspects techniques : possibilités de quitter à tout
moment, d’admettre plusieurs utilisateurs (exercices
d’auto-évaluation), de désinstaller aisément et sans
scories, etc. Nous considérons qu’un bon produit doit satisfaire
un utilisateur novice et pas seulement les passionnés de
technologies nouvelles.
 Les critères
esthétiques, la qualité du son et de l’image, les aspects
ludiques, ne sont pas négligés car ils influent sur le plaisir
d’apprendre.

grille d’analyse de CD
Dans la même rubrique

Tests de cédéroms : 12 ans d’archives

Voir les autres articles de cette rubrique