Code Velocity
Alati za razvojne programere

Pristupačnost: GitHub transformiše povratne informacije u inkluziju uz kontinuiranu AI

·7 min čitanja·GitHub·Originalni izvor
Podeli
Dijagram toka koji ilustruje GitHub-ov tok rada za povratne informacije o pristupačnosti zasnovan na kontinuiranoj AI.

Revolucionisanje pristupačnosti: GitHub-ov pristup kontinuiranoj AI

Godinama se GitHub suočavao sa uobičajenim, ali kritičnim izazovom: efikasno upravljanje povratnim informacijama o pristupačnosti. Za razliku od tipičnih problema sa proizvodima, zabrinutosti u vezi sa pristupačnošću su sveprisutne, često se preplićući kroz više timova i sistema. Jedan izveštaj od korisnika čitača ekrana može da se odnosi na navigaciju, autentifikaciju i podešavanja, čineći tradicionalne izolovane procese povratnih informacija neefikasnim. To je dovodilo do razbacanih izveštaja, nerešenih grešaka i frustracije korisnika čiji su problemi tinjali u mitskoj "drugoj fazi" koja se retko ostvarivala.

Prepoznajući potrebu za fundamentalnom promenom, GitHub se upustio u putovanje ka centralizaciji povratnih informacija, stvaranju standardizovanih šablona i raščišćavanju značajnog zaostatka. Tek nakon uspostavljanja ovog robusnog temelja, postavilo se pitanje: Kako AI može dalje transformisati ovaj proces? Odgovor leži u inovativnom internom toku rada, pokretanom GitHub Actions-ima, GitHub Copilot-om i GitHub Models-ima, dizajniranom da kontinuirano transformiše svaki deo povratnih informacija korisnika u praćeni, prioritetni i izvršni problem. Ovaj pristup osigurava da AI unapređuje ljudsku procenu, pojednostavljujući ponavljajuće zadatke i omogućavajući stručnjacima da se fokusiraju na isporuku inkluzivnog softvera.

Kontinuirana AI: Živ sistem za inkluziju

GitHub-ova "Kontinuirana AI za pristupačnost" je više od pukog alata; to je živa metodologija koja integriše automatizaciju, veštačku inteligenciju i ljudsku ekspertizu kako bi inkluziju ugradila direktno u tkivo razvoja softvera. Ova filozofija podržava GitHub-ovu posvećenost zalogu za Globalni dan svesti o pristupačnosti (GAAD) 2025. godine, s ciljem jačanja pristupačnosti u ekosistemu otvorenog koda efikasnim usmeravanjem i prevođenjem povratnih informacija korisnika u značajna poboljšanja platforme.

Osnovna spoznaja je bila da najuticajniji proboji potiču iz slušanja stvarnih ljudi, ali slušanje u velikom obimu predstavlja značajne izazove. Da bi to prevazišao, GitHub je izgradio tok rada za povratne informacije koji funkcioniše kao dinamičan motor, a ne kao statički sistem za tikete. Koristeći sopstvene proizvode, GitHub razjašnjava, strukturira i prati povratne informacije korisnika i klijenata, pretvarajući ih u rešenja spremna za implementaciju.

Pre nego što je zaronio u tehnološka rešenja, GitHub je usvojio pristup dizajna koji stavlja ljude na prvo mesto, identifikujući ključne persone kojima je sistem trebalo da služi:

  • Podnosioci problema: Menadžeri zajednice, agenti podrške i prodajni predstavnici kojima je potrebno vođenje za efikasno prijavljivanje problema, čak i bez dubokog znanja o pristupačnosti.
  • Timovi za pristupačnost i usluge: Inženjeri i dizajneri kojima su potrebni strukturirani, izvršni podaci—kao što su koraci za reprodukciju, WCAG mapiranje i ocene ozbiljnosti—za efikasno rešavanje problema.
  • Menadžeri programa i proizvoda: Rukovodstvo koje treba jasan uvid u bolne tačke, trendove i napredak za donošenje strateških odluka o dodeli resursa.

Ovo osnovno razumevanje omogućilo je GitHub-u da dizajnira sistem koji tretira povratne informacije kao podatke koji teku kroz dobro definisan cevovod, sposoban da se razvija u skladu sa njihovim potrebama.

Automatizacija toka povratnih informacija o pristupačnosti

GitHub je svoju novu arhitekturu konstruisao oko obrasca vođenog događajima, gde svaki korak pokreće GitHub Action za orkestriranje naknadnih akcija, obezbeđujući dosledno rukovanje povratnim informacijama bez obzira na njihovo poreklo. Iako je prvobitno ručno izgrađen sredinom 2024. godine, takav sistem se sada može razviti značajno brže korišćenjem alata kao što su Agentni tokovi rada, koji omogućavaju kreiranje GitHub Actions-a putem prirodnog jezika.

Tok rada odgovara na ključne događaje: kreiranje problema pokreće analizu GitHub Copilot-a putem GitHub Models API-ja, promene statusa pokreću predaju timovima, a rešavanje problema podstiče praćenje sa originalnim podnosiocem. Automatizacija pokriva uobičajeni put, ali ljudi mogu ručno pokrenuti ili ponovo pokrenuti bilo koju akciju, zadržavajući nadzor i fleksibilnost.

Tok rada povratnih informacija u sedam koraka:

  1. Unos: Povratne informacije stižu iz različitih izvora kao što su GitHub diskusioni forum o pristupačnosti (koji čini 90% izveštaja), tiketi podrške, društveni mediji i e-pošta. Sve povratne informacije se potvrđuju u roku od pet radnih dana. Za stavke koje zahtevaju akciju, član tima ručno kreira problem za praćenje koristeći prilagođeni šablon za povratne informacije o pristupačnosti, koji beleži suštinski kontekst. Ovaj događaj kreiranja pokreće GitHub Action za angažovanje GitHub Copilot-a i dodavanje problema na centralizovanu tablu projekta.

  2. Analiza Copilot-a: GitHub Action poziva GitHub Models API za analizu novokreiranog problema.

  3. Pregled podnosioca: Početni podnosilac pregleda analizu Copilot-a, potvrđujući njenu tačnost ili vršeći prilagođavanja.

  4. Pregled tima za pristupačnost: Specijalizovani tim za pristupačnost sprovodi dublji pregled i strategije rešenja.

  5. Povezivanje revizija: Relevantne revizije ili spoljni resursi se povezuju radi konteksta i usklađenosti.

  6. Zatvaranje kruga: Kada se problem reši, formalno se zatvara, a originalni korisnik ili klijent se obaveštava.

  7. Poboljšanje: Povratne informacije o performansama sistema, uključujući analizu Copilot-a, doprinose kontinuiranim ažuriranjima i usavršavanjima.

Ovaj kontinuirani tok osigurava vidljivost, strukturu i delotvornost u svakoj fazi životnog ciklusa povratnih informacija.

Inteligentna trijaža pristupačnosti GitHub Copilot-a

U srcu ovog automatizovanog sistema nalazi se inteligentna analiza GitHub Copilot-a. Kada se kreira problem za praćenje, GitHub Action tok rada programski poziva GitHub Models API za analizu izveštaja. GitHub je doneo stratešku odluku da koristi sačuvane poruke (prilagođena uputstva) umesto finog podešavanja modela. Ovo omogućava bilo kom članu tima da ažurira ponašanje AI-a putem jednostavnog pull zahteva, eliminišući potrebu za složenim cevovodima za preobuku ili specijalizovanim znanjem mašinskog učenja. Kada se standardi pristupačnosti razvijaju, tim ažurira Markdown i instrukcijske datoteke, a ponašanje AI-a se prilagođava sledećim pokretanjem.

GitHub Copilot je konfigurisan sa prilagođenim uputstvima koje su razvili njihovi stručnjaci za pristupačnost. Ova uputstva služe dvema ključnim ulogama:

  • Analiza trijaže: Klasifikovanje problema po kršenju WCAG-a, ozbiljnosti (sev1-sev4) i pogođenoj grupi korisnika.
  • Obuka o pristupačnosti: Vođenje timova u pisanju i pregledu pristupačnog koda.

Datoteke sa uputstvima se pozivaju na GitHub-ove politike pristupačnosti, biblioteku komponenti i internu dokumentaciju, pružajući Copilot-u sveobuhvatno razumevanje kako da tumači i primenjuje WCAG kriterijume uspešnosti.

Automatizacija se odvija u dva ključna koraka:

  1. Prva akcija: Po kreiranju problema, Copilot analizira izveštaj, automatski popunjavajući približno 80% metapodataka problema. Ovo uključuje preko 40 tačaka podataka kao što su tip problema, segment korisnika, originalni izvor, pogođene komponente i sažetak korisničkog iskustva. Copilot zatim objavljuje komentar na problemu koji sadrži sažetak problema, predložene WCAG kriterijume, nivo ozbiljnosti, pogođene grupe korisnika, preporučenu dodelu timu i kontrolnu listu za verifikaciju.
  2. Druga akcija: Ova naknadna akcija raščlanjuje komentar Copilot-a, primenjuje oznake na osnovu dodeljene ozbiljnosti, ažurira status problema na tabli projekta i dodeljuje ga podnosiocu na pregled.

Ključno je, ako je analiza Copilot-a netačna, svako je može označiti otvaranjem problema koji opisuje neslaganje, direktno doprinoseći GitHub-ovom procesu kontinuiranog poboljšanja za AI.

Ljudski nadzor i iterativna poboljšanja pristupačnosti

Tok rada naglašava ljudski nadzor i saradnju. Nakon automatizovane analize Copilot-a, faza "pregled podnosioca" (korak 3) omogućava ljudskom podnosiocu da proveri nalaze AI-a. Ovaj pristup "čovek u petlji" osigurava tačnost i omogućava ručne korekcije ili označavanje za proces kontinuiranog poboljšanja Copilot-a. Naknadni koraci – pregled tima za pristupačnost, povezivanje revizija i zatvaranje kruga – dodatno integrišu ljudsku ekspertizu, osiguravajući da složene probleme rešavaju specijalisti i da korisnici dobiju blagovremena, efikasna rešenja.

Ovaj dinamični sistem predstavlja značajnu promenu za GitHub. Korišćenjem AI-a za obradu ponavljajućih aspekata upravljanja povratnim informacijama koji zahtevaju puno podataka, transformisali su haotičan, često stagnirajući proces u kontinuirani, proaktivni motor za inkluziju. To znači da se svaki deo povratnih informacija o pristupačnosti sada pouzdano prati, prioritizuje i obrađuje, prevazilazeći obećanja o "drugoj fazi" kako bi se isporučila trenutna, opipljiva poboljšanja za sve korisnike. Krajnji cilj nije zamena ljudske procene, već njeno osnaživanje, oslobađanje dragocenog vremena i ekspertize da se fokusira na strateške popravke i podstakne zaista pristupačno softversko iskustvo.

Često postavljana pitanja

What challenges did GitHub face with accessibility feedback before implementing its Continuous AI system?
Prior to the new system, GitHub struggled with a decentralized and inconsistent approach to accessibility feedback. Issues were often scattered across various backlogs, lacked clear ownership, and improvements were frequently postponed. This disorganization led to a lack of follow-through, leaving users with unaddressed concerns and creating a barrier to truly inclusive software development. The cross-cutting nature of accessibility issues, touching multiple teams, exacerbated these coordination challenges, making it difficult to establish a single point of responsibility or a coherent workflow for resolution.
What defines 'Continuous AI for accessibility' and how does it enhance traditional accessibility efforts?
Continuous AI for accessibility is a dynamic methodology that integrates automation, artificial intelligence, and human expertise into the software development lifecycle. Unlike static audits or one-time fixes, it's a living system designed to continuously process and act on user feedback. It goes beyond simple code scanners by actively listening to real people and using AI, particularly GitHub Copilot and GitHub Actions, to clarify, structure, and prioritize that feedback. This ensures that inclusion is woven into the very fabric of development, transforming scattered reports into implementation-ready solutions and fostering ongoing improvement.
How does GitHub Copilot specifically contribute to the efficiency and effectiveness of the accessibility feedback workflow?
GitHub Copilot plays a crucial role by providing intelligent triage and analysis of accessibility reports. Upon issue creation, Copilot, guided by custom instructions from accessibility subject matter experts, programmatically analyzes the report. It automatically populates approximately 80% of an issue's metadata, including WCAG violation classifications, severity levels, affected user groups, and recommended team assignments. This automated analysis significantly reduces manual effort, standardizes issue categorization, and provides immediate, actionable insights, allowing human teams to focus on problem-solving rather-than repetitive data entry and initial assessment.
What are GitHub's 'custom instructions' for Copilot, and why were they chosen over model fine-tuning for this system?
GitHub utilizes 'custom instructions' for Copilot, developed by their accessibility subject matter experts, to guide its behavior for triage analysis and accessibility coaching. These instructions are stored prompts that point to GitHub’s accessibility policies, component library, and internal documentation, detailing how WCAG success criteria are interpreted and applied. This approach was chosen over model fine-tuning because it allows for rapid iteration and team-wide updates. Any team member can update the AI's behavior by modifying markdown and instruction files via a pull request, eliminating the need for complex retraining pipelines or specialized ML knowledge, ensuring the AI's behavior evolves as standards do.
How does GitHub ensure that human judgment and oversight remain central to the accessibility process despite the extensive use of AI automation?
GitHub deliberately designed its system so that AI automates repetitive tasks while humans retain critical judgment and oversight. For example, after GitHub Copilot's initial analysis, a 'submitter review' step ensures a human verifies Copilot's findings. If Copilot's analysis is incorrect, humans can flag it, providing direct feedback for continuous improvement of the AI. Furthermore, every GitHub Action in the workflow can be manually triggered or re-run, ensuring that humans can intervene at any point. The goal is to offload mundane work to AI, empowering humans to focus on complex problem-solving, collaboration, and making informed decisions about software fixes.
Who are the primary beneficiaries of GitHub's enhanced accessibility feedback system, and how does it cater to their specific needs?
The system serves three primary groups. Issue submitters (community managers, support agents, sales reps) benefit from a guided system that standardizes feedback collection and educates them on accessibility concepts. Accessibility and service teams (engineers, designers) receive structured, actionable data including reproducible steps, WCAG mapping, and clear ownership, streamlining their remediation efforts. Program and product managers gain visibility into pain points, trends, and progress, enabling strategic resource allocation. Ultimately, the biggest beneficiaries are the users and customers with disabilities whose feedback is now consistently tracked, prioritized, and acted upon, leading to a more inclusive GitHub experience.
How does GitHub integrate user feedback from external sources into its internal accessibility process, ensuring consistency and actionability?
GitHub acknowledges that accessibility feedback can originate from diverse external sources, including support tickets, social media, email, and direct outreach, with the GitHub accessibility discussion board being a primary channel. Regardless of the source, every piece of feedback is acknowledged within five business days. When external feedback requires action, a team member manually creates an internal tracking issue using a custom accessibility feedback template. This template standardizes the collected information, preventing data loss. This new issue then triggers an automated GitHub Action, engaging GitHub Copilot for analysis and adding it to a centralized project board, ensuring consistent processing and action regardless of its origin.

Будите у току

Примајте најновије AI вести на имејл.

Podeli