Revolutie in Toegankelijkheid: GitHub's Continue AI-aanpak
Jarenlang stond GitHub voor een veelvoorkomende maar cruciale uitdaging: het effectief beheren van toegankelijkheidsfeedback. In tegenstelling tot typische productproblemen, zijn toegankelijkheidskwesties alomtegenwoordig en bestrijken ze vaak meerdere teams en systemen. Eén enkel rapport van een schermlezergebruiker kan betrekking hebben op navigatie, authenticatie en instellingen, waardoor traditionele, afgeschermde feedbackprocessen ineffectief zijn. Dit leidde tot versnipperde rapporten, onopgeloste bugs en de frustratie van gebruikers wier problemen bleven hangen in een mythische "fase twee" die zelden werd gerealiseerd.
GitHub erkende de noodzaak van een fundamentele verschuiving en begon aan een reis om feedback te centraliseren, gestandaardiseerde sjablonen te creëren en een aanzienlijke achterstand weg te werken. Pas na het leggen van deze robuuste basis ontstond de vraag: Hoe kon AI dit proces verder transformeren? Het antwoord ligt in een innovatieve interne workflow, aangedreven door GitHub Actions, GitHub Copilot en GitHub Models, ontworpen om elk stukje gebruikersfeedback continu om te zetten in een bijgehouden, geprioriteerd en bruikbaar probleem. Deze aanpak zorgt ervoor dat AI het menselijk oordeel versterkt, repetitieve taken stroomlijnt en experts in staat stelt zich te richten op het leveren van inclusieve software.
Continue AI: Een Levend Systeem voor Inclusie
GitHub's "Continue AI voor toegankelijkheid" is meer dan alleen een tool; het is een levende methodologie die automatisering, kunstmatige intelligentie en menselijke expertise integreert om inclusie direct in de kern van softwareontwikkeling te verankeren. Deze filosofie ondersteunt GitHub's toewijding aan de 2025 Global Accessibility Awareness Day (GAAD) belofte, met als doel de toegankelijkheid in het hele open-source ecosysteem te versterken door gebruikersfeedback effectief te routeren en te vertalen naar zinvolle platformverbeteringen.
De kernrealisatie was dat de meest impactvolle doorbraken voortkomen uit het luisteren naar echte mensen, maar luisteren op schaal brengt aanzienlijke uitdagingen met zich mee. Om dit te overbruggen, bouwde GitHub een feedback-workflow die functioneert als een dynamische motor in plaats van een statisch ticketsysteem. Door gebruik te maken van zijn eigen producten, verduidelijkt, structureert en volgt GitHub gebruikers- en klantenfeedback, en zet deze om in implementatieklare oplossingen.
Voordat er in technologische oplossingen werd gedoken, hanteerde GitHub een 'people-first' ontwerpaanpak, waarbij de belangrijkste persona's werden geïdentificeerd die het systeem moest bedienen:
- Probleem indieners: Communitymanagers, supportmedewerkers en salesvertegenwoordigers die begeleiding nodig hebben om problemen effectief te rapporteren, zelfs zonder diepgaande toegankelijkheidsexpertise.
- Toegankelijkheids- en serviceteams: Engineers en ontwerpers die gestructureerde, bruikbare gegevens nodig hebben — zoals reproduceerbare stappen, WCAG-mapping en ernstscores — om problemen efficiënt op te lossen.
- Programma- en productmanagers: Leiderschap dat duidelijk inzicht nodig heeft in knelpunten, trends en voortgang om strategische beslissingen te nemen over de toewijzing van middelen.
Dit fundamentele begrip stelde GitHub in staat een systeem te ontwerpen dat feedback behandelt als gegevens die door een goed gedefinieerde pijplijn stromen, in staat om te evolueren met hun behoeften.
De Toegankelijkheidsfeedbackpijplijn Automatiseren
GitHub heeft zijn nieuwe architectuur opgebouwd rond een gebeurtenisgestuurd patroon, waarbij elke stap een GitHub Action triggert om volgende acties te orkestreren, wat zorgt voor een consistente afhandeling van feedback, ongeacht de oorsprong. Hoewel oorspronkelijk handmatig gebouwd in medio 2024, kan een dergelijk systeem nu aanzienlijk sneller worden ontwikkeld met behulp van tools zoals Agentic Workflows, die het mogelijk maken om GitHub Actions te creëren via natuurlijke taal.
De workflow reageert op belangrijke gebeurtenissen: het aanmaken van een probleem initieert GitHub Copilot-analyse via de GitHub Models API, statuswijzigingen triggeren teamoverdrachten, en de oplossing van een probleem vraagt om opvolging met de oorspronkelijke indiener. De automatisering bestrijkt het gangbare pad, maar mensen kunnen elke Actie handmatig activeren of opnieuw uitvoeren, waardoor toezicht en flexibiliteit behouden blijven.
De Zevenstappen Feedback-workflow:
-
Intake: Feedback stroomt binnen vanuit diverse bronnen zoals het GitHub-toegankelijkheidsdiscussieforum (dat 90% van de rapporten vertegenwoordigt), supporttickets, sociale media en e-mail. Alle feedback wordt binnen vijf werkdagen erkend. Voor bruikbare items creëert een teamlid handmatig een trackingprobleem met behulp van een aangepaste toegankelijkheidsfeedbacksjabloon, die essentiële context vastlegt. Deze aanmaakgebeurtenis triggert een GitHub Action om GitHub Copilot in te schakelen en het probleem toe te voegen aan een gecentraliseerd projectoverzicht.
-
Copilot-analyse: Een GitHub Action roept de GitHub Models API aan om het nieuw aangemaakte probleem te analyseren.
-
Indienerbeoordeling: De oorspronkelijke indiener beoordeelt Copilot's analyse en bevestigt de nauwkeurigheid ervan of brengt aanpassingen aan.
-
Toegankelijkheidsteam-beoordeling: Het gespecialiseerde toegankelijkheidsteam voert een diepere beoordeling uit en strategiseert oplossingen.
-
Audits Koppelen: Relevante audits of externe bronnen worden gekoppeld voor context en compliance.
-
Loop Sluiten: Zodra het probleem is aangepakt, wordt het formeel gesloten en wordt de oorspronkelijke gebruiker of klant op de hoogte gebracht.
-
Verbetering: Feedback over de prestaties van het systeem, inclusief Copilot's analyse, informeert continue updates en verfijningen.
Deze continue stroom zorgt voor zichtbaarheid, structuur en bruikbaarheid in elke fase van de feedbacklevenscyclus.
GitHub Copilot's Intelligente Toegankelijkheidstriage
De kern van dit geautomatiseerde systeem is de intelligente analyse van GitHub Copilot. Wanneer een trackingprobleem wordt aangemaakt, roept een GitHub Action workflow programmatisch de GitHub Models API aan om het rapport te analyseren. GitHub heeft een strategische keuze gemaakt om opgeslagen prompts (aangepaste instructies) te gebruiken in plaats van model fine-tuning. Dit stelt elk teamlid in staat om het gedrag van de AI bij te werken via een eenvoudige pull-request, waardoor complexe hertrainingspijplijnen of gespecialiseerde machine learning-kennis overbodig worden. Wanneer toegankelijkheidsstandaarden evolueren, werkt het team markdown- en instructiebestanden bij, en het gedrag van de AI past zich aan bij de volgende uitvoering.
GitHub Copilot is geconfigureerd met aangepaste instructies, ontwikkeld door hun deskundigen op het gebied van toegankelijkheid. Deze instructies dienen twee cruciale rollen:
- Triage-analyse: Problemen classificeren op WCAG-schending, ernst (sev1-sev4) en getroffen gebruikersgroep.
- Toegankelijkheidscoaching: Teams begeleiden bij het schrijven en beoordelen van toegankelijke code.
De instructiebestanden verwijzen naar GitHub's toegankelijkheidsbeleid, componentenbibliotheek en interne documentatie, waardoor Copilot een uitgebreid begrip krijgt van hoe WCAG-succescriteria moeten worden geïnterpreteerd en toegepast.
De automatisering ontvouwt zich in twee belangrijke stappen:
- Eerste Actie: Bij het aanmaken van een probleem analyseert Copilot het rapport en vult automatisch ongeveer 80% van de metadata van het probleem in. Dit omvat meer dan 40 gegevenspunten, zoals type probleem, gebruikerssegment, oorspronkelijke bron, getroffen componenten en een samenvatting van de gebruikerservaring. Copilot plaatst vervolgens een opmerking bij het probleem met een probleemsamenvatting, voorgestelde WCAG-criteria, ernstniveau, getroffen gebruikersgroepen, aanbevolen teamtoewijzing en een checklist voor verificatie.
- Tweede Actie: Deze daaropvolgende Actie analyseert de opmerking van Copilot, past labels toe op basis van de toegewezen ernst, werkt de status van het probleem op het projectoverzicht bij en wijst het toe aan de indiener ter beoordeling.
Cruciaal is dat als de analyse van Copilot onnauwkeurig is, iedereen dit kan aangeven door een probleem te openen dat de discrepantie beschrijft, wat direct bijdraagt aan GitHub's continue verbeteringsproces voor de AI.
Menselijk Toezicht en Iteratieve Toegankelijkheidsverbeteringen
De workflow benadrukt menselijk toezicht en samenwerking. Na Copilot's geautomatiseerde analyse maakt de "indienerbeoordeling"-fase (stap 3) het mogelijk voor de menselijke indiener om de bevindingen van de AI te verifiëren. Deze 'human-in-the-loop' aanpak zorgt voor nauwkeurigheid en maakt handmatige correcties of meldingen mogelijk voor Copilot's continue verbeteringsproces. De daaropvolgende stappen—Beoordeling door het Toegankelijkheidsteam, Audits Koppelen en Loop Sluiten—integreren verder menselijke expertise, zodat complexe problemen door specialisten worden aangepakt en gebruikers tijdig, effectieve oplossingen ontvangen.
Dit dynamische systeem vertegenwoordigt een belangrijke verschuiving voor GitHub. Door AI in te zetten om de repetitieve en data-intensieve aspecten van feedbackbeheer af te handelen, hebben ze een chaotisch, vaak stagnerend proces getransformeerd in een continue, proactieve motor voor inclusie. Dit betekent dat elk stukje toegankelijkheidsfeedback nu betrouwbaar wordt gevolgd, geprioriteerd en opgevolgd, wat verder gaat dan beloften van "fase twee" om onmiddellijke, tastbare verbeteringen te leveren voor alle gebruikers. Het uiteindelijke doel is niet om menselijk oordeel te vervangen, maar om het te versterken, waardevolle tijd en expertise vrij te maken om zich te richten op strategische oplossingen en een werkelijk toegankelijke software-ervaring te bevorderen.
Originele bron
https://github.blog/ai-and-ml/github-copilot/continuous-ai-for-accessibility-how-github-transforms-feedback-into-inclusion/Veelgestelde vragen
What challenges did GitHub face with accessibility feedback before implementing its Continuous AI system?
What defines 'Continuous AI for accessibility' and how does it enhance traditional accessibility efforts?
How does GitHub Copilot specifically contribute to the efficiency and effectiveness of the accessibility feedback workflow?
What are GitHub's 'custom instructions' for Copilot, and why were they chosen over model fine-tuning for this system?
How does GitHub ensure that human judgment and oversight remain central to the accessibility process despite the extensive use of AI automation?
Who are the primary beneficiaries of GitHub's enhanced accessibility feedback system, and how does it cater to their specific needs?
How does GitHub integrate user feedback from external sources into its internal accessibility process, ensuring consistency and actionability?
Blijf op de hoogte
Ontvang het laatste AI-nieuws in je inbox.
