« Test (informatique) » : différence entre les versions

Aller à la navigation Aller à la recherche
m (1 révision importée)
 
(Aucune différence)

Dernière version du 29 novembre 2015 à 16:02

Page d'aide sur l'homonymie Pour les articles homonymes, voir Test.

En informatique, un test désigne une procédure de vérification partielle d'un système. Son objectif principal est d'identifier un nombre maximum de comportements problématiques du logiciel afin d'en augmenter la qualité (si les problèmes identifiés lors des tests sont corrigés). Néanmoins, le test peut aussi avoir pour objectif d'apporter des informations quant à cette qualité afin de permettre la prise en décisions.

Les tests de vérification ou de validation visent ainsi à vérifier que ce système réagit de la façon prévue par ses développeurs (spécifications) ou est conforme aux besoins du client, respectivement. Dans cet article nous ne traitons que du test de logiciel, le test de matériel informatique (ou 'hardware') n'est pas abordé.

Un test ressemble à une expérience scientifique. Il examine une hypothèse exprimée en fonction de trois éléments : les données en entrée, l'objet à tester et les observations attendues. Cet examen est effectué sous conditions contrôlées pour pouvoir tirer des conclusions. Un bon test respecte également l'exigence de répétabilité [1].

Définition

La définition qui suit est issue de la norme IEEE 829-1998[2] revue à l'aide du glossaire de l'ISTQB[3].

Un test est un ensemble de cas à tester (état de l'objet à tester avant exécution du test, actions ou données en entrée, valeurs ou observations attendues, et état de l'objet après exécution), éventuellement accompagné d'une procédure d'exécution (séquence d'actions à exécuter). Il est lié à un objectif.

La réalisation d'un test amène donc à définir cet ensemble. Différents types de test permettent de détecter différents types de défaut. Des méthodes de spécification de test ont été élaborées pour permettre une plus grande rigueur dans cette activité de définition. La norme britannique BS 7925-2[4] (version préliminaire disponible ici) ou le Software Testing Techniques[5] de Boris Bezier en donnent des exemples.

Un test vise à mettre en évidence des défauts de l'objet testé. Cependant, il n'a pas pour finalité :

  • d'identifier la cause des erreurs,
  • de les rectifier,
  • de prouver la correction de l'objet testé.

La définition d'un cas à tester précise les exigences s'appliquant à une spécification. Un objet ne peut être testé que si on peut déterminer précisément le comportement attendu en fonction des conditions auxquelles il est soumis. Si la spécification ne permet pas cette détermination, la propriété du logiciel qu'elle définit ne peut être testée.

Soumettre la spécification à cette contrainte de « testabilité » permet d'en améliorer la précision puisqu'elle oblige à expliciter les caractéristiques de l'objet. Ceci permet, en retour, de trouver plus tôt les erreurs de spécification (incohérence, etc). Cette contrainte est renforcée par certaines méthodes de développement comme le Test-Driven Development. L'ISTQB souligne le rapport de cette contrainte à la « maintenabilité » de l'objet.

L'activité de test d'un logiciel utilise différents types et techniques de tests pour vérifier que le logiciel est conforme à son cahier des charges (vérification du produit) et aux attentes du client (validation du produit). Elle est un des processus du développement de logiciels.

Défaut (Bug)

L'ISTQB[3] définit un défaut comme une imperfection dans un composant ou un système qui peut en perturber le fonctionnement. Ce défaut est révélé par une défaillance (failure) s'il est exécuté, c'est-à-dire une déviation par rapport au comportement ou résultat attendu.

Cette définition indique que l'exécution du produit n'est pas la seule façon de détecter des défauts. Elle laisse aussi entrevoir qu'un code peut être syntaxiquement et sémantiquement correct et pourtant présenter un défaut qui ne sera manifesté que lors d'un test de performance par exemple. Dans un tel cas, l'origine du défaut pourrait être une erreur d'architecture ou de configuration.

Le terme anomalie est aussi souvent utilisé. C'est un terme générique qui fait référence autant à un défaut qu'à une défaillance.

La définition donnée dans la norme BS 7925-1[6] pour l'entrée fault (il n'y a pas d'entrée defect) fait de cette imperfection la matérialisation d'une erreur, c'est-à-dire d'une action humaine produisant un résultat incorrect (voir cette norme et la norme IEEE 610.12-1990[7]), une « faute » de frappe ou une erreur de raisonnement par exemple. L'ISTQB semble se démarquer de cette position car même s'il considère que les défauts sont le plus souvent provoqués par des erreurs humaines, ceux-ci peuvent aussi être la conséquence de phénomènes environnementaux (radiation, pollution, magnétisme,...) modifiant le support hardware des logiciels testés.

Qualité et Test

Les phases de test dans le cycle de développement d'un produit logiciel permettent d'assurer un niveau de qualité défini en accord avec le client. Une procédure de test peut donc être plus ou moins fine, et par conséquent l'effort de test plus ou moins important et coûteux selon le niveau de qualité requis. Aujourd'hui, les métiers dédiés au monde du test commencent à apparaître. C'est en grande partie grâce à une prise de conscience de la complexité ou de la criticité des produits. Il est alors important que ces différentes phases soient bien intégrées dans le cycle de développement sur la base de bonnes pratiques et de la rationalisation du processus[8].

Classification des tests

Il existe différentes façons de classer les tests informatiques. Nous proposons ici une classification selon trois perspectives : la nature de l'objet à tester (perspective étroitement liée au cycle de développement), le niveau de connaissance de la structure de l'objet et le type de caractéristique ou propriété (performance par exemple).

Ces trois perspectives ne permettent cependant pas de classer le test de non-régression (voir aussi l'article sur la non-régression). Le glossaire de l'ISTQB[3] le définit comme cherchant à mettre en évidence, dans la partie inchangée du logiciel, des défauts mis à jour ou introduits par un changement dans le logiciel (mise à niveau, correction, etc) ou son environnement d'exécution.

Le test de non-régression n'est donc pas restreint à une phase particulière du cycle de développement. Il n'est pas non plus restreint à un type de propriété à tester. .

Classification selon le niveau

Le Comité français du test logiciel identifie quatre niveaux de test :

  1. Composant (unitaire)
  2. Intégration (anciennement test d'intégration technique...)
  3. Test système (anciennement homologation, ou test fonctionnel, ou même test d'intégration fonctionnel...)
  4. Test d'acceptation ou UAT (user acceptance testing) (anciennement recette, test usine...)

Par ailleurs, on parle aussi de niveaux de tests amont et aval pour désigner respectivement unitaire+intégration = amont et acceptation+système = aval.

De même, en France, le terme « phase de test » est parfois utilisé à la place de « niveau de test » mais il ne respecte pas le vocabulaire du CFTL.

Définition des niveaux de test

  • Niveau de tests : un groupe d’activités de tests qui sont organisées et gérées ensemble. Un niveau de tests est lié aux responsabilités dans un projet. Les niveaux de tests sont les tests de composants, les tests d’intégration, les tests système et d’acceptation.

Cette définition (TMap) est citée celle du glossaire CFTL - cf liens externes en bas de cette page)

Classification selon le niveau d'accessibilité

  • Technique de conception de test de structure (boîte blanche, white box)  : technique de conception de test, en général fonctionnel, fondée sur l'analyse de la structure interne du composant ou du système.
  • Technique de conception de test de type boîte noire (black box) : technique de conception de test, fonctionnel ou non, qui n'est pas fondée sur l'analyse de la structure interne du composant ou du système.

Les tests résultants d'une technique de conception de test de structure (test structural) vérifient la structure interne de l'objet, par exemple l'exécution des branches des instructions conditionnelles. Les tests unitaires sont souvent spécifiés à l'aide de telles techniques. Pour certains types de logiciel, des normes prescrivent les techniques de conception de test de structure à utiliser (par exemple, la norme américaine RTCA/DO-178B pour les logiciels d'avionique).

Dans les tests résultant d'une technique de conception de test de type boîte noire, les données en entrée et le résultat attendu sont sélectionnés non pas en fonction de la structure interne mais de la définition de l'objet. Ces tests sont les plus fréquents parmi les tests fonctionnels d'intégration et de recette, mais rien n'empêche d'utiliser ces techniques de conception pour définir des tests unitaires.

Par extension, on appelle couramment les tests issus de ces types de techniques de conception, tests boîte blanche (ou white box) et tests boîte noire (ou black box).

Pareillement, on appelle couramment test boîte blanche (ou structurel) une façon de tester utilisant des tests dits boîte blanche ; de même pour le test boîte noire. La référence à une telle façon de faire pourrait se trouver, par exemple, dans un plan de test.

Classification selon la caractéristique

On ne peut pas être exhaustif, on se contentera de quelques exemples :

Une liste de toutes les caractéristiques d'un logiciel a été établie par la norme ISO 9126.

En dehors du cas très particulier de systèmes extrêmement simples, il est impossible de tester exhaustivement un logiciel, car le nombre de configurations possibles croît de façon exponentielle selon le nombre de mises en situation différentes que le logiciel pourra être appelé à traiter ; le nombre de configurations accessibles, bien qu'inférieur, reste tout de même prohibitif. La réussite des tests ne permet donc pas de conclure au bon fonctionnement du logiciel. On essaye cependant, heuristiquement, de faire en sorte que si un bug est présent, le test le mette en évidence, notamment en exigeant une bonne couverture des tests :

  • couverture en points de programme : chaque point de programme doit avoir été testé au moins une fois
  • couverture en chemins de programme : chaque séquence de points de programme possible dans une exécution doit avoir été testée au moins une fois (impossible en général).
  • couverture fonctionnelle : chaque fonctionnalité métier de l'application doit être vérifiée par au moins un cas de test.

Si l'on veut des assurances plus fortes de bon fonctionnement, on peut utiliser des méthodes formelles.

Les bibliothèques de tests telles JUnit en langage Java, permettent de faciliter l'écriture de tests unitaires par l'apport des méthodes "assert" permettant de vérifier le comportement du programme.

Selon la complexité du logiciel, des séquences de vérification globale peuvent s'avérer nécessaires. Celles-ci mettent en jeu la maîtrise d'ouvrage et toutes les composantes du projet, au-delà du logiciel lui-même (processus, organisation, formation, accompagnement du changement) : réception, qualification, certification, homologation, simulation, VABF (vérification d'aptitude au bon fonctionnement)... les termes varient selon les contextes.

Activités de test

Le test est souvent assimilé à son activité d’exécution. Cependant, même si cette phase est la plus importante car c'est celle qui permet la détection des défauts, d'autres activités peuvent être pratiquées afin d'améliorer la pertinence de l'activité d'exécution.

  • Planification/Organisation. Cette activité est celle qui est pratiquée au tout début de la phase de test. Elle permet de définir la stratégie qui sera mise en place tout au long de la phase de test.
  • Conception. Cette activité consiste en la rédaction des tests qui seront joués. Elle définit pour chaque test à exécuter quels seront : les pré-requis à posséder pour effectuer le test, les actions qu'il faudra mener et les résultats auxquels on s'attend.
  • Exécution. Cette activité est le test à proprement parler du logiciel. Dans le cas où un comportement inhabituel est détecté lors de cette phase, celui-ci est alors le plus souvent décrit dans une fiche d'anomalie qui permet de conserver une trace du problème.
  • Clôture ou Bilan. Cette activité permet de synthétiser la phase de test lorsque celle-ci est terminée. Elle décrit tous les éléments survenus lors du test et peut parfois apporter des préconisations quant à la qualité du logiciel testé.
  • Suivi. Contrairement aux activités précédemment décrites qui suivent un ordre chronologique, cette activité s'effectue parallèlement aux activités de conception et d'exécution. Elle permet d'apporter des informations quant à l'avancement de chacune des activités. Pour cela, des indicateurs sont utilisés. Les plus courants sont : le nombre de cas de tests conçus sur le nombre de tests prévus, le nombre de tests exécutés sur le nombre de tests prévus ou conçus, le nombre de tests en échec ou réussis sur le nombre total de tests prévus.

Documents

  • Le plan de tests et d'évaluation est le document regroupant tous les tests et décrit la stratégie de test en décrivant les tests dans leur globalité : place dans le processus produit, environnement de test, types de tests, etc.
  • les fiches de test sont des documents rattachés au plan de test, chaque fiche correspondant à un ensemble cohérent des tests constitutifs du plan. Elles peuvent être basées sur un découpage fonctionnel (par ex par Use case), ou éventuellement sur d'autres critères. Une fiche de test décrit généralement, étape par étape, les démarches à suivre pour dérouler le test, et les résultats : comportement ou réaction attendu du système à chacune de ces étapes.
  • Le dossier de test désigne un ensemble de documents regroupant les différents plans de tests avec leurs fiches, mais aussi les résultats des tests passés sur la base de ces fiches.

Notes et références

  1. Claude Laporte et Alain April, Assurance qualité logicielle 2: processus de support, Chapitre 1, Lavoisier, 2011, {{#invoke:Biblio|ISBN}}, page 372
  2. {{#invoke:Langue|indicationDeLangue}}IEEE Standard for Software Test Documentation, 1998 {{#invoke:Biblio|ISBN}}
  3. 3,0 3,1 et 3,2 {{#invoke:Langue|indicationDeLangue}} Standard glossary of terms used in Software Testing, ISTQB, version 2.0, décembre 2007
  4. {{#invoke:Langue|indicationDeLangue}} Software testing. Software component testing, 1998 {{#invoke:Biblio|ISBN}}
  5. {{#invoke:Langue|indicationDeLangue}} Software Testing Techniques, Boris Beizer, 1990 {{#invoke:Biblio|ISBN}}
  6. {{#invoke:Langue|indicationDeLangue}} Glossary of terms used in software testing
  7. {{#invoke:Langue|indicationDeLangue}}IEEE Standard Glossary of Software Engineering Terminology, 1990 {{#invoke:Biblio|ISBN}}
  8. {{#invoke:Langue|indicationDeLangue}} Industrialiser le test fonctionnel : des exigences métier au référentiel de tests, 2009 {{#invoke:Biblio|ISBN}}

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes

Liens externes

{{#invoke:Palette | listePalette | maxPalette = 20

|

|

|{{Palette {{{3}}} || nocat= | parent=bandeau}} |{{Palette {{{4}}} || nocat= | parent=bandeau}} |{{Palette {{{5}}} || nocat= | parent=bandeau}} |{{Palette {{{6}}} || nocat= | parent=bandeau}} |{{Palette {{{7}}} || nocat= | parent=bandeau}} |{{Palette {{{8}}} || nocat= | parent=bandeau}} |{{Palette {{{9}}} || nocat= | parent=bandeau}} |{{Palette {{{10}}} || nocat= | parent=bandeau}} |{{Palette {{{11}}} || nocat= | parent=bandeau}} |{{Palette {{{12}}} || nocat= | parent=bandeau}} |{{Palette {{{13}}} || nocat= | parent=bandeau}} |{{Palette {{{14}}} || nocat= | parent=bandeau}} |{{Palette {{{15}}} || nocat= | parent=bandeau}} |{{Palette {{{16}}} || nocat= | parent=bandeau}} |{{Palette {{{17}}} || nocat= | parent=bandeau}} |{{Palette {{{18}}} || nocat= | parent=bandeau}} |{{Palette {{{19}}} || nocat= | parent=bandeau}} |{{Palette {{{20}}} || nocat= | parent=bandeau}} }}

{{#invoke:Catégorisation badges|badgesCategories}}

kk:Тестілеу