Méthodologie d’évaluation sur l’accessibilité des sites We en format JSON-LD (niveau AA)

Page d'exemple - Gabarit de référence initial

Cette page contient les instructions afin de remplir le gabarit de référence en format JSON-LD pour l'initiation d'une évaluation et de la production d'un rapport ACR (Rapport de Conformance d'Accessibilité) illustrant la conformité du sujet web évalué.

Voici les instructions pour compléter l'évaluation en format JSON-LD pour chaque critère de succès selon la méthodologie d’évaluation sur l’accessibilité des sites Web (niveau AA):

  1. Copier le fichier JSON-LD de référence (Téléchargement du gabarit de référence)
  2. Nom de fichier recommandé

    La convention de nom proposée débute avec le type de rapport (comme « acr », qui représente « Rapport de conformance d'accessibilité »), suivi d'un tiret, suivi d'un identifiant unique, puis:

    Rapport JSON-LD
    Suivi par une extension de fichier suggérant que le fichier est en format JSON. Le modèle est : acr-{identifiant}.json. Voici quelques exemples: acr-1.json, acr-2023-03-16.json
    WET-BOEW - Page du rapport publié
    Suivi par un tiret, suivi par les 2 lettres représentant le code de la langue et suivi par l'extension de fichier hbs. Le modèle est : acr-{identifiant}-{langue}.hbs. Voici quelques exemples: acr-1-en.hbs, acr-1-fr.hbs, acr-2023-03-16-en.hbs, acr-2023-03-16-fr.hbs
    GCWeb - Page du rapport publié
    Suivi par un tiret, suivi par les 2 lettres représentant le code de la langue et suivi par l'extension de fichier html. Le modèle est : acr-{identifiant}-{langue}.html. Voici quelques exemples: acr-1-en.html, acr-1-fr.html, acr-2023-03-16-en.html, acr-2023-03-16-fr.html
  3. Configuration du gabarit pour la page de rapport en HTML

    WET-BOEW - Page du rapport publié

    Utilisez cette préface (front-matter) et adaptez les métadonnées pour correspondre au contexte du rapport ACR.

    ---
    {
    	"title": "Évaluation de conformance d'accessibilité #{identifiant} - Sujet",
    	"language": "{langue}",
    	"altLangPage": "acr-{identifiant}-en.html",
    	"dateModified": "AAAA-MM-JJ",
    	"layout": "acr-{langue}.hbs",
    	"reportURL": "acr-{identifiant}.json"
    }
    ---

    Mettez à jour les propriétés suivantes:

    title
    Titre du rapport d'évaluation de la conformité d'accessibilité (ACR)
    language
    Code de 2 lettres représentant la langue du rapport publié
    altLangPage
    Nom de fichier de la page tranduite et alternative.
    dateModified
    Date de modification
    layout
    Gabarit pour le rapport en français: acr-fr.hbs
    Gabarit pour le rapport en anglais: acr-en.hbs
    reportURL
    Lien vers le document en format JSON du rapport d'évaluation de la conformité en accessibilité
    GCWeb - Page du rapport publié
    Les configurations spécifiques ne sont pas encore publiées
  4. Sauvegarde et référencement du rapport

    Ajouter les fichiers modifiés dans un nouveau sous-dossier nommé reports dans le dossier principal du plugiciel ou du composant.

    WET-BOEW - Page du rapport publié
    Ajouter un lien vers le rapport en anglais et celui en français dans la documentation du plugiciel ou dans une section dédiée dans l'example pratique.
    GCWeb - Page du rapport publié
    Ajouter un lien vers le rapport en anglais et celui en français à partir du fichier pivot json-ld du composant et optionnellement des liens à partir de la page de documentation du composant.
  5. Mettez à jour le modèle JSON-LD avec les métadonnées suivantes afin de pouvoir produire une évaluation de conformance d'accessibilitéité (ACR):

    Lien permanent du rapport (@id)
    Lien final d'où le rapport sera publié
    Modèle: {url}
    Exemple: https://wet-boew.github.io/wet-boew/demos/wamethod/demo-acr/acr-1.json
    Identifiant du rapport (reportId)
    Identifiant du rapport qui le rend unique par rapport aux autres rapports ACR dans le même emplacement.
    Modèle: {identifiant}
    Exemple: 1
    Lien du sujet (subjectUrl)
    Lien du sujet évalué.
    Modèle: {URL}
    Exemple: https://example.com/line/de/la/page/évaluer
    Nom de l'évaluateur (assertedBy/producedBy/name)
    Nom complet de l'évaluateur suivi optionellement de son identifiant GitHub.
    Modèle: {Nom complet} ({Nom du média social}: @{Identifiant du média social})
    Exemple: The Octocat (GitHub: @octocat)
    Identifiant de l'évaluateur (assertedBy/producedBy/@id)
    Lien menant à la page de média social de l'évaluateur.
    Modèle: {URL}
    Exemple: https://github.com/octocat
    Organisation de l'évaluateur (assertedBy/name)
    Nom de l'organisation optionnellement précédé par le nom de son département
    Modèle: {Nom du département} - {Nom de l'organisation}
    Exemple: Service Canada - Éditeur principal
    Identifiant de l'organisation (assertedBy/@id)
    Lien menant au profil de l'organisation de l'évaluateur
    Modèle: {URL}
    Exemple: https://github.com/ServiceCanada
    Portée de l'évaluation (scope)
    Portée de l'évaluation (scope) qui défini ce qui sera évalué et ce qui sera hors de portée. Il peut inclure une note lisible indiquant le type ainsi que le niveau de conformité envisagé. Cette note lisible doit correspondre à la valeur assignée à la propriété earl:test définie à la racine de ce rapport.
    Modèle: {Description de la porté}
    Exemple: Évaluation partielle orientée uniquement sur le composant {nom du composant}, excluant le code conteneur. Évaluation de tous les critères de succès au niveau AA du WCAG 2.1
  6. Journalisation de l'évaluation pour chaque critère de succès. Voici les propriétés pour chaque critère de succès énuméré dans la propriété racine results.

    La propriété label contient le titre du critère de succès représentant une version compréhensible par l'humain et la propriété earl:test représente la version lisible par les machines qui font référence au critère de succès dans le standard publié du WCAG (Web Content Accessibility Guidance) published standard.

    Résultat en format lisible par l'humain (outcome)
    Un texte lisible par l'humain indiquant l'état du résultat de l'évaluation du critère de succès.
    Modèle: {Résultat en mots}
    Référence: https://www.w3.org/TR/EARL/#OutcomeValue
    Exemple: Passé; Échoué; Ne peut être défini; Non applicable; Non vérifié
    Résultat en format lisible par la machine (earl:outcome)
    Résultat compréhensible par la machine indiquant le résultat de l'évaluation du critère de succès. La valeur doit correspondre à la propriété outcome.
    Modèle: {Référence au type de résultat}
    Référence: https://www.w3.org/TR/EARL/#OutcomeValue
    Exemple: earl:passed; earl:failed; earl:cantTell; earl:inapplicable; earl:untested
    Note de l'évaluateur (notes)
    Toutes notes à propos de l'évaluation de ce critère de succès et toutes notes complémentaires en identifiant les techniques concernées ou celles qui sont appliquées au contenu de manière évidente.
    Modèle: {Note lisible par l'humain}
    Technique référencées et appliquées (techniques)
    Liste des techniques en format lisible par machine référencées dans la note d'évaluation ainsi que les techniques étant clairement appliquées. La référence consiste en un préfix suivi de l'identifiant de la technique qui peut être facilement obtenu par la déduction des deux (2) dernières sections de l'URL de la page web.
    Modèle: WCAG2xTech:{ Identifiant de la technique }
    Exemple: WCAG2xTech:failures/F100; WCAG2xTech:general/G94; WCAG2xTech:html/H42; WCAG2xTech:css/C6; WCAG2xTech:aria/ARIA13; WCAG2xTech:failures/client-side-script/SCR19; WCAG2xTech:server-side-script/SVR1; WCAG2xTech:pdf/PDF1; WCAG2xTech:smil/SM7; WCAG2xTech:text/T2
    Mode d'évaluation (earl:mode)

    Donnée lisible par la machine indiquant le type de méthode utilisé afin de compléter l'évaluation du critère de succès.

    • Automatisé signifie que l'évaluation a entièrement été faite à l'aide d'outils automatisés (comme WAVE, axe, Accessibility Insights...) qui ont analysé la page à évaluer et l'évaluateur a seulement journalisé les résultats sans le valider du code source de la page ou du rendu visuel de la page pour vérifier si l'information est adéquate.
    • Semi-automatisé signifie que l'évaluation a été complétée à l'aide d'outils automatisés qui ont fait des analyses afin de guider l'évaluateur à identifier rapidement les erreurs communes ou des points d'intérêt et l'évaluateur a vérifié l'exactitude à partir du code source de la page et du rendu visuel.
    • Manuel signifie que l'évaluation a été complétée en employant une méthode de vérification manuelle à partir du code source de la page et du rendu visuel. L'utilisation d'outils est limitée à des outils d'appoint qui n'analysent pas directement la page en question sur la conformance du critère de succès. Par exemple l'évaluateur du contraste de couleur ou un validateur de balisage HTML.
    Modèle: earl:{ Mode d'évaluation }
    Référence: https://www.w3.org/TR/EARL/#TestMode
    Example: earl:automatic; earl:manual; earl:semiAuto; earl:undisclosed; earl:unknownMode

    Note:

  7. Fermeture du rapport de conformance initial en ajoutant les métadonnées suivantes:

    Sommaire et/ou note générale à propos de l'évaluation (summary)
    Un sommaire et/ou une note générale fait par l'évaluateur concernant l'évaluation en cours, des observations ou/et commentaires qui aideront à fournir plus de contexte et améliorera la compréhension du résultat de l'évaluation. Il pourrait également contenir toutes notes qui doivent être prises en considération au-delà des critères de succès, comme ceux de la section 5 sur la conformance du WCAG 2.x.
    Modèle: {Note générale}
    Note de conformité de l'évaluation (aggregatedScore)
    Poucentage (%) calculé manuellement représentant tous les critères de succès réussis sur le nombre total de critères de succès
    Modèle: {Taux de succès} %
    Exemple: 74%
  8. Publication du rapport ACR via l'ouverture d'une demande GitHub de fusion (Pull Request) conformément à nos lignes directrices de contribution.
Date de modification :