Od spersonalizowanych rekomendacji filmowych i muzycznych po przetwarzanie danych medycznych - sztuczna inteligencja rewolucjonizuje różne aspekty naszego życia. Jednak w miarę jak systemy AI stają się coraz bardziej zintegrowane z codziennymi czynnościami, kwestia ich stronniczości stała się poważnym problemem.
W tym artykule zgłębimy ten temat, przyglądając się przykładom firm, które musiały zmierzyć się z tym wyzwaniem. Omówimy również praktyczne strategie łagodzenia stronniczości w sztucznej inteligencji, tak aby mogła przysłużyć się wszystkim w różnym stopniu.
Czym jest AI Bias?
Termin "bias" jest często używany w psychologii i oznacza tendencję, skłonność lub uprzedzenie do lub przeciwko czemuś lub komuś, oparte raczej na stereotypach i osobistych opiniach niż na faktach i wiedzy.
Analogicznie, AI Bias (znany również jako stronniczość uczenia maszynowego lub stronniczość algorytmów) odnosi się do systematycznego faworyzowania lub dyskryminacji wykazywanej przez systemy sztucznej inteligencji. Stronniczość ta pojawia się, gdy modele sztucznej inteligencji generują wyniki, które odzwierciedlają i utrwalają ludzkie uprzedzenia i nierówności społeczne obecne w danych szkoleniowych lub w projekcie samego algorytmu.
Może ona przejawiać się na różnych etapach, w tym gromadzenia danych, opracowywania algorytmów i prognoz, prowadząc do niesprawiedliwego traktowania niektórych grup lub idei.
Najczęstsze rodzaje stronniczości AI
Uprzedzenia AI mogą przejawiać się w różnych formach, z których każda ma inne konsekwencje. Zrozumienie tych powszechnych rodzajów uprzedzeń ma kluczowe znaczenie dla rozwoju bardziej sprawiedliwych i inkluzywnych systemów sztucznej inteligencji. Oto niektóre z najbardziej rozpowszechnionych typów:
Stronniczość danych - ten rodzaj stronniczości wynika z tendencyjnych zestawów danych wykorzystywanych do trenowania modeli sztucznej inteligencji. Jeśli dane treningowe nie są reprezentatywne dla szerszej populacji lub zawierają nieodłączne uprzedzenia, sztuczna inteligencja prawdopodobnie powieli, a nawet zaostrzy te uprzedzenia.
Tendencyjność selekcji - tendencyjność selekcji ma miejsce, gdy dane zebrane do szkolenia sztucznej inteligencji nie są wybierane losowo, ale zgodnie z tendencyjną metodą próbkowania, co prowadzi do niereprezentatywnego zestawu szkoleniowego.
Błąd pomiaru - występuje, gdy zmienne używane do pomiaru i gromadzenia danych są stronnicze. Narzędzia lub metody wykorzystywane do gromadzenia danych mogą faworyzować niektóre grupy względem innych.
Niejawne uprzedzenia - powstają, gdy osoby przyjmują założenia oparte na własnych modelach mentalnych i osobistych doświadczeniach, które mogą nie mieć powszechnego zastosowania.
Powszechną formą ukrytej stronniczości jest stronniczość potwierdzająca - AI może ją wykazywać, gdy szuka lub nadaje większą wagę informacjom, które potwierdzają wcześniej istniejące przekonania lub hipotezy, ignorując dane, które im zaprzeczają.
Przykłady stronniczości sztucznej inteligencji
Sztuczna inteligencja stała się integralną częścią nowoczesnej technologii, wpływając na różne aspekty codziennego życia, od rozpoznawania twarzy po procesy rekrutacyjne. Jednak pomimo swojego potencjału w zakresie zwiększania wydajności i dokładności, systemy AI nie są odporne na uprzedzenia. Przyjrzyjmy się bliżej niektórym z nich.
Uprzedzenia związane z płcią i typem skóry w komercyjnych systemach sztucznej inteligencji
Zgodnie z nowym artykułem naukowców z MIT i Uniwersytetu Stanforda, trzy komercyjnie wykorzystywane systemy sztucznej inteligencji do analizy twarzy wykazywały uprzedzenia. Badaczka Joy Buolamwini wykorzystała skalę Fitzpatricka (skalę koloru skóry, która dzieli odcienie skóry na sześć kategorii) i odkryła, że systemy te działały znacznie gorzej przy rozpoznawaniu osób o ciemniejszej karnacji. Co więcej, rozpoznawanie twarzy miało wyższe wskaźniki błędów dla kobiet niż dla mężczyzn.
W eksperymentach przeprowadzonych przez naukowców wskaźniki błędów trzech programów w określaniu płci jasnoskórych mężczyzn nigdy nie były gorsze niż 0,8 procent. Jednak w przypadku ciemnoskórych kobiet wskaźniki błędów wzrosły - do ponad 20 procent w jednym przypadku i ponad 34 procent w pozostałych dwóch.
Źródło:MIT News
Odkrycie to skłoniło IBM do stworzenia nowego modelu, który działałby lepiej po przeszkoleniu na bardziej zróżnicowanym zbiorze danych i zastosowaniu solidniejszej podstawowej sieci neuronowej.
Algorytm rekrutacyjny dyskryminujący kobiety
Rozwiązania AI mogą być wykorzystywane podczas procesu rekrutacji i są szczególnie przydatne dla korporacji, które otrzymują setki CV i mają obszerną bazę byłych kandydatów do dopasowania do aktualnych ofert pracy. Amazon jest jedną z najlepszych firm, które mogą wykorzystać automatyzację na swoją korzyść, ale nawet gigant e-commerce ma w swojej historii nieudany projekt.
Zespół Amazona pracował nad systemem weryfikacji CV kandydatów do pracy. Modele komputerowe zostały przeszkolone do oceny kandydatów poprzez analizę wzorców w życiorysach przesłanych do firmy w ciągu dekady. Problem polegał na tym, że większość tych życiorysów pochodziła od mężczyzn, co odzwierciedlało dominację mężczyzn w branży technologicznej. System nieustannie przyznawał życiorysom kobiet niższe wyniki. Amazon zdecydował się anulować tę inicjatywę w 2017 roku.
Firmie udało się uratować część tego, czego nauczyła się z nieudanego eksperymentu ze sztuczną inteligencją. Obecnie używa „znacznie osłabionej wersji” silnika rekrutacyjnego, aby pomóc w niektórych podstawowych obowiązkach, w tym w usuwaniu zduplikowanych profili kandydatów z baz danych - powiedziała jedna z osób zaznajomionych z projektem.
Źródło: Reuters
Niefiltrowane wprowadzanie danych prowadzi do udostępniania dyskryminujących wypowiedzi
Historia bota na Twitterze (na platformie znanej obecnie jako X) zaczęła się niewinnie. Microsoft stworzył Tay jako eksperyment. Celem było nauczenie bota, jak angażować się w swobodne i zabawne rozmowy, podobne do tych między użytkownikami w mediach społecznościowych. Każdy mógł rozmawiać z Tay i tu zaczęły się problemy.
Użytkownicy zaczęli “karmić” bota obraźliwymi treściami, a Tay zaczęła udostępniać te wypowiedzi jako własne w mniej niż 24 godziny. Incydent ten pokazuje ryzyko związane z programowaniem sztucznej inteligencji do interakcji w nieograniczonym środowisku ludzkim.
"Aby stworzyć dobre AI, trzeba iterować z wieloma osobami i często na forach publicznych. Musimy podchodzić do każdego z nich z wielką ostrożnością i ostatecznie uczyć się i ulepszać, krok po kroku, i robić to bez obrażania ludzi w tym procesie. Pozostaniemy niezłomni w naszych wysiłkach, aby uczyć się na podstawie tego i innych doświadczeń, pracując nad tym, aby przyczynić się do powstania Internetu, który reprezentuje to, co najlepsze, a nie najgorsze w ludzkości."
Źródło: Blog Microsoft
Jak złagodzić stronniczość AI?
Aby zapewnić, że technologie AI są uczciwe, przejrzyste i sprawiedliwe, konieczne jest wdrożenie strategii, które łagodzą uprzedzenia w całym cyklu życia rozwoju AI. Przyjrzyjmy się skutecznym metodom i najlepszym praktykom ograniczania uprzedzeń w sztucznej inteligencji.
Zróżnicowane i reprezentatywne zbiory danych
Uczenie maszynowe jest tak dobre, jak dane, które je uczą. Dane szkoleniowe powinny obejmować zróżnicowane i reprezentatywne próbki populacji. Pomyśl o zbieraniu danych z różnych grup demograficznych, w tym różnych grup wiekowych, płci, pochodzenia etnicznego i społeczno-ekonomicznego.
Regularne audyty i monitorowanie
Nawet zróżnicowane zbiory danych mogą być podatne na uprzedzenia, więc zawsze powinny istnieć osoby lub systemy, które sprawdzają generowane odpowiedzi. Należy ustanowić regularne procesy audytu w celu przeglądu wydajności AI i wykrywania uprzedzeń. Regularne testy i monitorowanie mogą zapobiec sytuacjom, w których sztuczna inteligencja zaczyna udzielać stronniczych odpowiedzi.
Integracyjne zespoły ds. rozwoju sztucznej inteligencji
Twórz zróżnicowane zespoły w celu opracowywania systemów sztucznej inteligencji. Upewnij się, że zespoły programistów AI obejmują członków z różnych środowisk i perspektyw. Zróżnicowane zespoły z większym prawdopodobieństwem zidentyfikują i rozwiążą potencjalne uprzedzenia.
Przestrzeganie wytycznych i zasad etycznych
Ustanów i przestrzegaj wytycznych etycznych dotyczących rozwoju i wdrażania sztucznej inteligencji. Opracuj i egzekwuj zasady, które promują sprawiedliwość, przejrzystość i odpowiedzialność w sztucznej inteligencji. Postępuj zgodnie z najlepszymi praktykami branżowymi i przestrzegaj standardów regulacyjnych, takich jak EU AI Act.
Konsultacje ze specjalistą
Specjalista ds. etyki sztucznej inteligencji jest odpowiedzialny za zapewnienie, że technologie sztucznej inteligencji są opracowywane i wykorzystywane w sposób zgodny z zasadami etycznymi i odpowiedzialnością społeczną.
W Primotly oferujemy konsultacje z ekspertem ds. etyki AI na każdym etapie prac. Dobrym pomysłem jest przeanalizowanie potrzeb w zakresie zgodności jeszcze przed wdrożeniem AI, na etapie planowania. Pomaga to uniknąć błędów, które mogą pochłonąć dodatkowy czas i zasoby. Możemy porozmawiać o Twoich obawach dotyczących ryzyka, przygotować etyczne i prawne wytyczne dotyczące wdrożenia usługi lub produktu oraz pomóc Ci przygotować się do etycznego wdrożenia.
Konsultacje w zakresie etycznego użytkowania mogą być również przeprowadzane, gdy rozwiązanie AI jest już w użyciu - przeprowadzamy również audyt procesów i zbiorów danych, na których AI została przeszkolona, aby zapobiec ryzyku stronniczości oraz zasugerować ulepszenia i zmiany.
Oferujemy profesjonalne doradztwo i wdrażanie rozwiązań AI zgodnie z wytycznymi etycznymi, zapewniając przejrzystość i uczciwość. Skontaktuj się z nami, aby omówić swój projekt.
Jak możesz uniknąć AI bias w swoim projekcie?
Regulacje prawne starają się nadążyć za rozwojem sztucznej inteligencji, która znajduje zastosowanie w wielu branżach, umożliwiając firmom zwiększenie przychodów i poprawę jakości usług. Zrozumienie i stosowanie zasad etycznych w kontekście sztucznej inteligencji nie tylko pomoże zachować zgodność z zaostrzającymi się wymogami prawnymi, ale także uniknąć stronniczości AI, która w najgorszym przypadku może nawet doprowadzić do niepowodzenia projektu. Warto zwrócić uwagę na etyczne i uczciwe wykorzystanie AI w swoich projektach, aby w pełni wykorzystać możliwości sztucznej inteligencji.