Rewolucjonizowanie Dostępności: Podejście GitHub z Ciągłą Sztuczną Inteligencją
Przez lata GitHub mierzył się z powszechnym, lecz krytycznym wyzwaniem: efektywnym zarządzaniem opiniami dotyczącymi dostępności. W przeciwieństwie do typowych problemów produktowych, kwestie dostępności są wszechobecne, często przekraczając granice wielu zespołów i systemów. Pojedynczy raport od użytkownika czytnika ekranu mógł dotyczyć nawigacji, uwierzytelniania i ustawień, co sprawiało, że tradycyjne, odizolowane procesy zbierania opinii były nieskuteczne. Prowadziło to do rozproszonych raportów, nierozwiązanych błędów i frustracji użytkowników, których problemy wlokły się w mitycznej "fazie drugiej", która rzadko się materializowała.
Uznając potrzebę fundamentalnej zmiany, GitHub podjął się zadania centralizacji opinii, stworzenia ustandaryzowanych szablonów i uporządkowania znacznego zaległości. Dopiero po zbudowaniu tych solidnych podstaw pojawiło się pytanie: jak sztuczna inteligencja mogłaby jeszcze bardziej przekształcić ten proces? Odpowiedź leży w innowacyjnym wewnętrznym przepływie pracy, napędzanym przez GitHub Actions, GitHub Copilot i GitHub Models, zaprojektowanym do ciągłego przekształcania każdej opinii użytkownika w śledzone, priorytetyzowane i możliwe do działania zgłoszenie. To podejście zapewnia, że sztuczna inteligencja wzmacnia ludzką ocenę, usprawniając powtarzalne zadania i pozwalając ekspertom skupić się na dostarczaniu inkluzywnego oprogramowania.
Ciągła Sztuczna Inteligencja: Żywy System dla Inkluzywności
'Ciągła Sztuczna Inteligencja dla dostępności' GitHub to więcej niż tylko narzędzie; to żywa metodologia, która integruje automatyzację, sztuczną inteligencję i ludzką ekspertyzę, aby wbudować inkluzywność bezpośrednio w strukturę rozwoju oprogramowania. Filozofia ta wspiera zobowiązanie GitHub do obchodów Światowego Dnia Świadomości Dostępności (GAAD) w 2025 roku, mające na celu wzmocnienie dostępności w całym ekosystemie open source poprzez skuteczne kierowanie i przekształcanie opinii użytkowników w znaczące ulepszenia platformy.
Kluczowym spostrzeżeniem było to, że najbardziej wpływowe przełomy wynikają ze słuchania prawdziwych ludzi, jednak słuchanie na dużą skalę stanowi poważne wyzwanie. Aby to przezwyciężyć, GitHub zbudował proces zbierania opinii, który działa jako dynamiczny silnik, a nie statyczny system biletowy. Wykorzystując własne produkty, GitHub wyjaśnia, strukturyzuje i śledzi opinie użytkowników i klientów, przekształcając je w gotowe do wdrożenia rozwiązania.
Zanim zagłębił się w rozwiązania technologiczne, GitHub przyjął podejście projektowania zorientowane na ludzi, identyfikując kluczowe osoby, którym system miał służyć:
- Zgłaszający problemy: Menedżerowie społeczności, agenci wsparcia i przedstawiciele handlowi, którzy potrzebują wskazówek, aby skutecznie zgłaszać problemy, nawet bez głębokiej wiedzy na temat dostępności.
- Zespoły ds. dostępności i serwisu: Inżynierowie i projektanci wymagający ustrukturyzowanych, możliwych do działania danych – takich jak możliwe do odtworzenia kroki, mapowanie WCAG i oceny ważności – aby efektywnie rozwiązywać problemy.
- Menedżerowie programów i produktów: Kierownictwo potrzebujące jasnego wglądu w problemy, trendy i postępy, aby podejmować strategiczne decyzje dotyczące alokacji zasobów.
To podstawowe zrozumienie pozwoliło GitHubowi zaprojektować system, który traktuje opinie jako dane przepływające przez dobrze zdefiniowany potok, zdolny do ewoluowania wraz z ich potrzebami.
Automatyzacja Procesu Zbierania Opinii o Dostępności
GitHub zbudował swoją nową architekturę wokół wzorca opartego na zdarzeniach, gdzie każdy krok uruchamia GitHub Action w celu orkiestracji kolejnych działań, zapewniając spójne przetwarzanie opinii niezależnie od ich pochodzenia. Chociaż początkowo system ten był budowany ręcznie w połowie 2024 roku, obecnie można go opracować znacznie szybciej, używając narzędzi takich jak Przepływy Agentowe, które umożliwiają tworzenie GitHub Actions za pomocą języka naturalnego.
Przepływ pracy reaguje na kluczowe zdarzenia: utworzenie zgłoszenia inicjuje analizę GitHub Copilot za pośrednictwem API GitHub Models, zmiany statusu uruchamiają przekazywanie zadań zespołowi, a rozwiązanie zgłoszenia skłania do kontaktu z pierwotnym zgłaszającym. Automatyzacja obejmuje typową ścieżkę, ale ludzie mogą ręcznie uruchomić lub ponownie uruchomić dowolną Akcję, zachowując nadzór i elastyczność.
Siedmioetapowy Proces Zbierania Opinii:
-
Przyjęcie: Opinie napływają z różnych źródeł, takich jak forum dyskusyjne GitHub dotyczące dostępności (które stanowi 90% raportów), zgłoszenia wsparcia, media społecznościowe i poczta elektroniczna. Wszystkie opinie są potwierdzane w ciągu pięciu dni roboczych. W przypadku elementów wymagających działania, członek zespołu ręcznie tworzy zgłoszenie śledzenia, używając niestandardowego szablonu opinii dotyczących dostępności, który przechwytuje niezbędny kontekst. To zdarzenie utworzenia uruchamia GitHub Action, aby zaangażować GitHub Copilot i dodać zgłoszenie do scentralizowanej tablicy projektowej.
-
Analiza Copilota: Akcja GitHub Action wywołuje API GitHub Models w celu analizy nowo utworzonego zgłoszenia.
-
Przegląd przez zgłaszającego: Pierwotny zgłaszający przegląda analizę Copilota, potwierdzając jej dokładność lub wprowadzając poprawki.
-
Przegląd przez Zespół ds. Dostępności: Wyspecjalizowany zespół ds. dostępności przeprowadza głębszy przegląd i opracowuje strategię rozwiązań.
-
Łączenie Audytów: Odpowiednie audyty lub zasoby zewnętrzne są łączone w celu kontekstu i zgodności.
-
Zamknięcie Obiegu: Po rozwiązaniu, zgłoszenie jest formalnie zamykane, a pierwotny użytkownik lub klient jest informowany.
-
Udoskonalenie: Opinie na temat wydajności systemu, w tym analizy Copilota, stanowią podstawę ciągłych aktualizacji i udoskonaleń.
Ten ciągły przepływ zapewnia widoczność, strukturę i możliwość podjęcia działań na każdym etapie cyklu życia opinii.
Inteligentne Sortowanie Dostępności przez GitHub Copilot
W sercu tego zautomatyzowanego systemu znajduje się inteligentna analiza GitHub Copilot. Gdy tworzone jest zgłoszenie śledzenia, przepływ pracy GitHub Action programowo wywołuje API GitHub Models w celu analizy raportu. GitHub podjął strategiczną decyzję o użyciu przechowywanych podpowiedzi (niestandardowych instrukcji) zamiast dostrajania modelu. Pozwala to każdemu członkowi zespołu na aktualizację zachowania sztucznej inteligencji za pomocą prostego żądania pull, eliminując potrzebę złożonych potoków ponownego szkolenia lub specjalistycznej wiedzy z zakresu uczenia maszynowego. Gdy standardy dostępności ewoluują, zespół aktualizuje pliki markdown i instrukcji, a zachowanie sztucznej inteligencji dostosowuje się przy kolejnym uruchomieniu.
GitHub Copilot jest skonfigurowany z niestandardowymi instrukcjami opracowanymi przez ekspertów ds. dostępności. Instrukcje te pełnią dwie kluczowe role:
- Analiza Sortowania: Klasyfikowanie problemów według naruszeń WCAG, ważności (sev1-sev4) i grupy dotkniętych użytkowników.
- Mentoring Dostępności: Prowadzenie zespołów w pisaniu i recenzowaniu dostępnego kodu.
Pliki instrukcji odwołują się do zasad dostępności GitHub, biblioteki komponentów i wewnętrznej dokumentacji, zapewniając Copilotowi kompleksowe zrozumienie, jak interpretować i stosować kryteria sukcesu WCAG.
Automatyzacja przebiega w dwóch kluczowych krokach:
- Pierwsza Akcja: Po utworzeniu zgłoszenia, Copilot analizuje raport, automatycznie wypełniając około 80% metadanych zgłoszenia. Obejmuje to ponad 40 punktów danych, takich jak typ problemu, segment użytkownika, oryginalne źródło, dotknięte komponenty i podsumowanie doświadczenia użytkownika. Copilot następnie zamieszcza komentarz do zgłoszenia, zawierający podsumowanie problemu, sugerowane kryteria WCAG, poziom ważności, dotknięte grupy użytkowników, zalecane przypisanie zespołu i listę kontrolną do weryfikacji.
- Druga Akcja: Ta kolejna Akcja analizuje komentarz Copilota, stosuje etykiety na podstawie przypisanej ważności, aktualizuje status zgłoszenia na tablicy projektowej i przypisuje je do zgłaszającego w celu przeglądu.
Co kluczowe, jeśli analiza Copilota jest niedokładna, każdy może to zgłosić, otwierając zgłoszenie opisujące niezgodność, bezpośrednio zasilając proces ciągłego doskonalenia sztucznej inteligencji GitHub.
Nadzór Człowieka i Iteracyjne Ulepszenia Dostępności
Przepływ pracy kładzie nacisk na nadzór człowieka i współpracę. Po zautomatyzowanej analizie Copilota, faza 'przeglądu przez zgłaszającego' (krok 3) pozwala człowiekowi zgłaszającemu zweryfikować ustalenia sztucznej inteligencji. To podejście 'człowiek w pętli' zapewnia dokładność i pozwala na ręczne korekty lub zgłoszenia do procesu ciągłego doskonalenia Copilota. Kolejne kroki – Przegląd Zespołu ds. Dostępności, Łączenie Audytów i Zamknięcie Obiegu – dalej integrują ludzką ekspertyzę, zapewniając, że złożone problemy są rozwiązywane przez specjalistów, a użytkownicy otrzymują terminowe i skuteczne rozwiązania.
Ten dynamiczny system stanowi znaczącą zmianę dla GitHub. Wykorzystując sztuczną inteligencję do obsługi powtarzalnych i intensywnych pod względem danych aspektów zarządzania opiniami, przekształcili chaotyczny, często zastoinowy proces w ciągły, proaktywny silnik inkluzywności. Oznacza to, że każda opinia dotycząca dostępności jest teraz niezawodnie śledzona, priorytetyzowana i brana pod uwagę, wykraczając poza obietnice 'fazy drugiej', aby dostarczyć natychmiastowe, namacalne ulepszenia dla wszystkich użytkowników. Ostatecznym celem nie jest zastąpienie ludzkiej oceny, ale jej wzmocnienie, uwalniając cenny czas i ekspertyzę, aby skupić się na strategicznych poprawkach i wspierać prawdziwie dostępne doświadczenie z oprogramowaniem.
Źródło oryginalne
https://github.blog/ai-and-ml/github-copilot/continuous-ai-for-accessibility-how-github-transforms-feedback-into-inclusion/Często zadawane pytania
What challenges did GitHub face with accessibility feedback before implementing its Continuous AI system?
What defines 'Continuous AI for accessibility' and how does it enhance traditional accessibility efforts?
How does GitHub Copilot specifically contribute to the efficiency and effectiveness of the accessibility feedback workflow?
What are GitHub's 'custom instructions' for Copilot, and why were they chosen over model fine-tuning for this system?
How does GitHub ensure that human judgment and oversight remain central to the accessibility process despite the extensive use of AI automation?
Who are the primary beneficiaries of GitHub's enhanced accessibility feedback system, and how does it cater to their specific needs?
How does GitHub integrate user feedback from external sources into its internal accessibility process, ensuring consistency and actionability?
Bądź na bieżąco
Otrzymuj najnowsze wiadomości o AI na swoją skrzynkę.
