Définissez des classes d'équivalence pour les données d'entrée et générez automatiquement des cas de test valides et invalides.
Saisissez les noms des paramètres et ajoutez des classes d'équivalence valides et invalides. Définissez un nom de classe et une valeur représentative pour chaque classe.
Cliquez sur « Générer les cas de test » pour créer automatiquement des tests de couverture des classes valides et des tests de classes invalides.
Copiez ou téléchargez les cas de test générés au format CSV ou Markdown.
Ajoutez des classes d'équivalence valides et invalides pour chaque paramètre
Le générateur de partitionnement d'équivalence est un outil en ligne qui divise les domaines de données d'entrée en classes d'équivalence et génère automatiquement des cas de test efficaces. En combinant les tests de couverture des classes valides avec les tests individuels des classes invalides, il offre à la fois exhaustivité et efficacité des tests.
Le partitionnement d'équivalence est une technique de test en boîte noire qui divise les domaines de données d'entrée en « classes d'équivalence » et teste des valeurs représentatives de chaque classe. En supposant que les valeurs d'une même classe produisent le même comportement, elle réduit le nombre de cas de test tout en atteignant une couverture élevée.
Les classes valides représentent les plages d'entrée que le système doit traiter normalement, tandis que les classes invalides représentent les plages que le système doit gérer comme des erreurs. Tester les deux garantit la qualité pour les scénarios normaux et d'erreur.
Le partitionnement d'équivalence divise les domaines en classes et teste des valeurs représentatives, tandis que l'analyse des valeurs limites se concentre sur les valeurs proches des limites. Elles sont complémentaires et leur combinaison permet des tests plus efficaces.
Téléchargez-les au format CSV pour les utiliser dans Excel ou des outils de gestion de tests, ou copiez-les au format Markdown pour les coller dans la documentation. Utilisez-les également comme liste de contrôle lors de l'exécution des tests.
Dans les tests invalides, un seul paramètre est défini comme invalide tandis que les autres restent valides. Cela permet d'isoler quel paramètre cause l'erreur. Définir plusieurs paramètres comme invalides simultanément rend difficile l'identification de la cause première.