Méthodologie du rapport de conformité à l'accessibilité

Méthode utilisant une approche itérative afin de produire plusieurs évaluations spécialisées et de produire par la suite un rapport de conformité à l'accessibilité.

Cette méthodologie a été conçue pour la production de rapports de conformité à l'accessibilité. Elle permet la création de plusieurs évaluations itératives et est compatible avec plusieurs normes telles que WCAG 2.1 Level AA, EN 301 549 ou tout autre sous-ensemble d'exigences.

La méthode comprend les grandes étapes suivantes :

  1. Analyser et explorer le sujet implique d'identifier les critères de réussite non applicables, de déterminer les champs de compétence nécessaire pour produire le rapport de conformité à l'accessibilité (RCA) et, le cas échéant, d'identifier les différentes parties du sujet de test.
  2. Produire des évaluations implique d'évaluer un sujet de test en fonction d'un ensemble de Règles de Test d'Accessibilité (ACT).
  3. Maintenir un rapport de conformité d'accessibilité (RCA) actif jusqu'à ce qu'aucun nouveau test ne soit nécessaire pour le sujet évalué afin d'établir si la conformité est satisfaite ou jusqu'à ce que le sujet évalué subisse un changement majeur qui aura pour incidence d'invalider en tout ou en partie les évaluations qui ont été considérées pour la production dudit rapport RCA.
  4. Émission du RCA, identification du rapport lorsqu'il est complet, reconnu final et représente l'état du sujet évalué. Lorsqu'il est émis, le rapport RCA ne doit pas inclure de nouvelle évaluation ni être modifié, à l'exception de son archivage.
  5. Archivage du rapport RCA, identification du rapport qu'il ne représente plus l'état d'accessibilité actuel du sujet évalué et cet archivage suggère qu'un nouveau rapport de conformité à l'accessibilité devrait être produit avec de nouvelles évaluations.

Type de document

Il y a deux types principaux de documents : l'évaluation qui est considérée informelle et le rapport de conformité à l'accessibilité qui est considéré formel. Les évaluations vont faire état du résultat des tests effectués à propos des critères de mérite (échoue, passe, pas applicable), ce qui peut être vérifié avec des états tels que adéquat, faux positif ou faux négatif durant la production du rapport de conformité à l'accessibilité.

Évaluation

Rapport informel

Résultat:

  • Passe
  • Échoue
  • Pas applicable

Évalue des cas d'essai

Utilise un ensemble de règles d'essai à la conformité de l'accessibilité (ACT) afin d'établir le résultat.

Rapport de conformité à l'accessibilité (RCA)

Rapport formel lorsqu'il inclut une date d'émission

Résultat:

  • Satisfait
  • Pas satisfait
  • Davantage de tests sont requis

Évalue des exigences

Utilise un ensemble d'évaluations afin d'établir la conformité.

Exemple théorique complet

Rapport de conformité à l'accessibilité (RCA)

Exemple pratique concret

Rapport de conformité à l'accessibilité (RCA)

Évaluation de l'accessibilité

Instructions :

  1. Définir la portée de l'évaluation.
  2. Choisir un ensemble de règles pour la conformité à l'accessibilité, tel que disponible dans le dépôt des règles ACT de WET-BOEW.
  3. Compléter les informations suivantes dans le gabarit d'évaluation utilisé :
    • Sujet : earl:subject
    • Votre nom et votre organisation : earl:assertedBy
    • Date : dct:date
    • Norme ciblé: acr:ConformanceStandard (URL official de la norme)
    • Option de la norme ciblé: acr:conformanceOption (Les instances peuvent être trouvé dans act:standard/profiles/)
  4. (Optionel) Identifier, si applicable, les informations suivantes :
    • Parties du sujet: earl:subject/dct:hasPart/
    • Implication des champs d'expertise: acr:involvesExpertise/
  5. Ajouter l'ensemble du gabarit JSON des règles dans la propriété earl:result.
  6. Pour chaque earl:result, tester, évaluer et noter le résultat obtenu par rapport au test associé à la règle d'essai de conformité à l'accessibilité earl:test.
  7. Finaliser l'évaluation en y ajoutant une note sommaire : dct:description.

Production du rapport de conformance à l'accessibilité

Cette section et ses sous-sections nécessitent une traduction.

  1. Report initialization
  2. Auditing and referencing an assessment
  3. Issuing and formalizing the ACR report
  4. Archiving

Report initialization

  1. Define the scope of the accessibility evaluation.
  2. Choose a conformance criteria ruleset from the WET-BOEW ACT rules repository.
  3. Fill out the assessment report template with the following information:
    • Subject: earl:subject.
    • Your name and your organization: earl:assertedBy.
    • Date created: dct:created.
    • Conformance to standard: acr:standard.
    • Conformance option: acr:conformanceOption.
  4. Set the selected ruleset JSON template as a baseline in acr:conformity

Auditing and referencing an assessment

  1. Edit the living ACR to include the new assessment that is in scope of the tested subject.
  2. Add the referenced assessment in acr:assessment:
    • The key is the URL where the assessment in JSON can be retrieved.
    • Add the assessment title in dct:title.
    • Add a link to the HTML equivalent report in dct:references.
    • Define the main language used for that assessment (2 letter code) dct:language.
    • Set the date of when the assessment was added into this ACR dct:date.
  3. Audit the assessment acr:audits:
    • Your name: earl:assertedBy.
    • Define the testing mode: earl:mode.
    • Add a reference to the assessment: acr:assessment.
    • Audit each evaluated test case and record your finding if applicable in acr:auditNote:
      • Define the accuracy (False negative, False positive, Accurate) in acr:accuracy.
      • Set the date of this note in dct:date.
      • Set the title of this note in dct:title.
      • Associate the applicable test case in earl:test.
      • Describe the concern expressed by this note in dct:description.
      • Optionally, describe the error message in earl:info.
      • Optionally, define a severity level in acr:severity.
      • Optionally, define a relevancy subject in acr:relevancy.
      • Optionally, include an attachment encoded in data URL in acr:asset.
    • If applicable, create a work item in wf:task and for each work item:
      • Set the title in dct:title.
      • Describe the work goal and additional description to provide enough context in wf:goalDescription.
      • Add a reference to the discussion page in dct:references.
      • Set the work item creation date in dct:created.
      • Define the test requirement this work item is about in acr:requirement.
      • Define the specific test case this work item is about in earl:test.
      • Optionally, define a severity level in acr:severity.
      • Optionally, define a relevancy subject in acr:relevancy.
    • Update the conformity of the criteria affected by the assessment and for each updated conformance requirement:
      • Update the conformance state (Satisfied, Not satisfied, Further test needed) in acr:conformance.
      • Add a reference to the applicable assessment in acr:assessment.
      • Add a description about its latest conformance state or the current state if applicable in dct:description.
      • Update the modified date in dct:modified.
      • Define the cumulative testing mode for this conformance requirement conformity in earl:mode.
  4. If possible, add your verifiable credential.

Issuing and formalizing the ACR report

  1. Edit the living ACR for which we want to set the conformance status for the tested subject.
  2. Validate the integrity of the test subject for all related assessments and audits. If this is not satisfied, the ACR must be archived.
  3. Revise audits, work items and all conformance requirements to ensure they are accurate.
  4. Validate each conformance requirement. None of them should be marked as "Further test needed"
  5. Set your name and your organization's name as the main assertor name for the conformance report using earl:assertedBy.
  6. Define the conformance report's conformance as "satisfied" only if all the conformance requirements are also "satisfied." Otherwise it is "not satisfied."
  7. Set the current date as the issue date using dct:issued.
  8. If possible, add your verifiable credentials.

Archiving

Ressources

Archivé - Instruction de la première version du rapport expérimental en JSON-LD

Nous travaillons activement sur la production d'un rapport en format JSON-LD qui est lisible par les machines et qui facilite le processus de publication des rapports sur le web à l'aide d'un complément de vocabulaire pour la production du rapport de conformance d'accessibilité. Notre intention est de mettre à jour cet outil afin de permettre la création de rapports RCA (Rapport de Conformance d'Accessibilité) JSON-LD. Vous pouvez contribuer à notre discussion sur le billet GitHub #9271 ou durant nos rencontres régulières.

Étape 1 de 3 - Instructions et exemple pour la publication/création d'un rapport RCA

Exemple théorique complet.

Intention du processus d'évaluation:

  1. L'évaluateur crée le rapport, fournit les informations sur l'évaluation et consigne les détails de son évaluation et ce pour chaque critère de succès.
  2. Un réviseur réouvre l'évaluation, s'auto identifie dans la section de revue, fait la revision de l'évaluation d'origine et ajoute ses notes à cette même revue. Lorsque complété, le réviseur pourra créer les travaux requis tel que nécessaire. Cet étape pourra être répétée aussi souvent que nécessaire mais lorsqu'il y aura plus de 3 révisions nous vous conseillons de considérer d'amorcer la production d'un nouveau rapport de conformance d'accessibilité et de recommencer ce processus.
  3. Fermeture - Un contributeur peut soumettre un changement afin d'identifier l'évaluation comme étant non-valide ou comme étant remplacée par un rapport plus récent.
Date de modification :