Dla wielu osób zagadnienie „etyczna SI”, w tym dokonywanie wyborów za pośrednictwem algorytmów, to nadal tylko kwestia poboczne. Na przykład decyzja czy autonomiczny samochód wypełniony pasażerami, ma uderzyć w mur, czy w osobę trzecią na drodze. Tymczasem kwestia zachowania etycznego lub jego braku, może zadecydować w ogóle o kierunkach rozwoju tej technologii. Może ją nawet zahamować lub zabić.
Badania nad zagadnieniem etyki Sztucznej Inteligencji niosą za sobą jasne i klarowne deklaracje ekspertów, organizacji czy rządów. Bardzo mocną podbudowę dla tworzenia innowacyjnych rozwiązań, ale też niezbyt transparentne możliwe konsekwencje związane z tym obszarem. Konsekwencje, których dziś nie znamy, ale mogą się okazać kluczowe za lat 20 czy 30.
SI potrzebna jak tlen?
Nie wolno nie dostrzegać pozytywnego wpływu, jaki systemy SI wywierają już teraz. Szczególnie w okresie pandemii można było zauważyć ogromną ilość rozwiązań w obszarze medycyny czy wirusologii. Algorytmy SI pomagały bezpośrednio w leczeniu, analizowały rozprzestrzeniane się wirusa. Wiele rozwiązań było wykorzystywanych w obszarze społecznym czy gospodarczym. Dzięki temu łatwiej świat mógł stoczyć walkę z pandemią, ale i jej ekonomicznymi i społecznymi konsekwencjami, skutkami, zagrożeniami. I ta ofensywa SI trwa.
Ten huraoptymizm i peany na cześć innowacyjnych technologii wylewające się z każdej strony warto jednak poddać pewnej próbie. Nadal nie ma żadnego rozwiązania problemu ryzyka i innych niekorzystnych skutków, jakie stwarzają te technologie, w świetle zastosowania SI. Wszystko idzie w kierunku podobnym, jak na początku z analizą Big Data. Dajcie nam swoje dane, a my uczynimy świat lepszym. Udało się? I tak i nie.
Prawne braki etycznej SI
Na szczęście temat etyki SI, w szczególności w Europie nabiera nieco innego wyrazu, niż wydaje się to z perspektywy działań Chin czy USA. Tam, gdzie wielkie korporacje czy instytucje jak wojsko mocno lobbują za wdrażaniem innowacji, temat etyki spłyca się do kwestii autonomicznych aut, czy żołnierzy-robotów. Należy też przypomnieć, że sama SI wcale nie jest tak dobrze uregulowana w prawie, a jej rodzajów i definicji jest bardzo dużo.
Odnosząc się do zagadnień związanych ze sztuczną inteligencją, należy podkreślić, że pierwsze pomysły dotyczące zasad jej funkcjonowania są dopiero opracowywane. Dotychczas powstały liczne dokumenty programowe i wieloletnie plany działań, które również wskazują na konieczność opracowania regulacji prawnych. Obecnie kompleksowych regulacji jeszcze nie ma.
Brak ten wynika, po pierwsze ze stosunkowo małego zakresu jej wykorzystania, a po drugie należy pamiętać, że jest to obszar informatyki, który ulega ciągłemu rozwojowi. Co prawda algorytmy, jak również narzędzia oparte na tzw. machine learning, czy sieciach neuronowych są powszechnie obecne, niemniej jednak obszar ich zastosowania jest jeszcze relatywnie niewielki. Ponadto, ze względu na poziom zaawansowania, wspomniane rozwiązania nadal nie są kwalifikowane jako tzw. silna sztuczna inteligencja, czyli taka, która byłaby samowystarczalna, nie wymagałaby ingerencji człowieka i byłaby w stanie podejmować zupełnie autonomiczne decyzje. Oczywiście technologia ulega ciągłemu rozwojowi, dlatego należy się nastawić, że w najbliższym czasie powstaną mechanizmy zupełnie niezależne, na których dalszy rozwój i funkcjonowanie człowiek może nie mieć w ogóle wpływu. Z kolei wizja „samowystarczalnej inteligencji” budzi liczne kontrowersje i będzie wymagała pogłębionych badań oraz wprowadzenia licznych norm prawnych. Regulowanie sztucznej inteligencji natomiast nie może się odbywać w oderwaniu od powszechnie przyjętych wzorców postępowania – uważa Katarzyna Gorzkowska, prawnik w kancelarii APLAW Artur Piechocki
Etyka w SI: 7 zasad na dobry początek
Komisja Europejska na bazie doświadczeń i wiedzy ekspertów wypracowała szereg zasad niezbędnych do uzyskania godnej zaufania SI, czy też etycznej SI. Zgodnie z tymi wytycznymi wiarygodna SI powinna działać zgodnie ze wszystkimi stosownymi przepisami ustawowymi i wykonawczymi. W czerwcu 2018 r. KE powołała grupę 52 ekspertów wysokiego szczebla, którzy opracowali „Wytyczne w Zakresie Rozwoju i Wykorzystania Sztucznej Inteligencji”. Pojawiło się tam 7 zasad, przykazań, jakie mają kierować budowaniem etycznej SI.
Kluczowy aspekt to przewodnia i nadzorcza rola człowieka – systemy SI powinny wspierać rozwój sprawiedliwego społeczeństwa poprzez wzmacnianie przewodniej roli człowieka i praw podstawowych, a nie zmniejszać, ograniczać czy wypaczać ludzką autonomię. Ponadto algorytmy stosowane w ramach wiarygodnej sztucznej inteligencji muszą być bezpieczne, niezawodne i wystarczająco solidne, by poradzić sobie z błędami lub niespójnościami na wszystkich etapach cyklu życia systemu SI.
Kolejna kwestia to ochrona prywatności i danych – obywatele powinni mieć pełną kontrolę nad własnymi danymi, zaś dane ich dotyczące nie będą wykorzystywane do szkodzenia im ani dyskryminowania.
Czwarta zasada to zasad przejrzystości – należy zapewnić identyfikowalność systemów SI. Ponadto systemy SI powinny uwzględniać cały zakres ludzkich zdolności, umiejętności i wymogów oraz zapewniać dostępność. Systemy sztucznej inteligencji powinny też wzmacniać pozytywne zmiany społeczne, wspierać zrównoważony rozwój i odpowiedzialność ekologiczną. Na koniec należy wprowadzić mechanizmy zapewniające odpowiedzialność za systemy SI oraz ich wyniki.
Podobne w treści wytyczne ws. etyki SI stworzyła rok później także OECD, wskazując m.in. na rozwój AI dla dobrobytu i zrównoważonego rozwoju, koncentrację na wartościach i człowieku, transparentność, bezpieczeństwo i odpowiedzialność. Podstawy zatem są, czas na realizację. A z tym może być największy problem.
(Nie)etyczna SI, ta straszna rasistka
W zasadzie większość negatywnych przykładów wykorzystania „nieetycznych zachowań i działań” z wykorzystaniem sztucznej inteligencji pojawia się w powiązaniu z USA. To tam algorytm miał przecież być odpowiedzialny za dyskryminację kobiet podczas rekrutacji. Oczywiście niewiele wspomina się już o tym, że Amazon zrezygnował z tego narzędzia w fazach testu i wcale nie zostało ono wdrożone. Fakt jednak zaistniał i dobrze. Pokazał on jakie ryzyko związane jest z dosyć prostym algorytmem przyznającym punkty za odpowiednie doświadczenie, przebyte kursy, zajmowane stanowiska czy posiadane kompetencje.
W stanie Idaho komputery zdecydowały o obniżeniu wysokości wypłacanych zasiłków z systemu Medicaid dla 4 tys. niepełnosprawnych. Bot Microsoftu na Twitterze podczas rozmów z użytkownikami zamieszczał rasistowskie tweety. Z kolei w USA systemy analizy twarzy praktycznie nie rozpoznają osób czarnoskórych bądź wychwytują takie osoby, jako niebezpieczne. Kto ponosi winę za tego typu technologiczne kwiatki?
Uboczne skutki, a nie rasizm
Istnieje co prawda zagadnienie „etycznego programowania”, ale ono istnieje już wszędzie, gdzie pojawiają się automaty i algorytmy. Znana jest sprawa algorytmu Netfliksa, który profiluje preferencje widzów, pokazując np. czarnoskórym widzom filmy i seriale o społeczności afroamerykańskiej. Jakie konsekwencje długookresowo może przynieść działanie takich algorytmów? Czy takie działanie jest etyczne? Mamy systemy automatycznie oceniający prace uczniów – kogo winić za to, że w wyniku doboru zadań i sposobu prezentacji jakaś grupa uczniów uzyskuje niższe wyniki?
Przykładów można by mnożyć, ale co one dokładnie pokazują? W zasadzie nic poza bardzo słabą jakością użytych danych. Może brakiem zaawanasowania samego algorytmu. Kluczowe jest też podstawa ich działania i to, czy owe błędy algorytmiczne nie są tylko ubocznymi skutkami dobrze działającego programu. Wszystko zależy bowiem od tego co chcemy uzyskać, jakie elementy wskaże programista jako kluczowe. Przy każdym aspekcie działania algorytmów należy powtarzać do znudzenia, że projektują je ludzie. Czy są oni rasistami, seksistami czy szowinistami? Raczej trudno o to kogokolwiek posądzić. Ale już o brak „etycznej intuicji” zapewne tak.
Etyczna SI: Odpowiedzialność dziś i jutro
Kto powinien odpowiadać za błędy związane z działaniem programów? Odpowiedź wydaje się prosta, ale warto pamiętać o jednym. Kluczowe jest, aby tak odpowiedzialność nie była pomijana lub zamiatana pod dywan. Nie wolno wszystkiego zrzucać na problemy wieku dziecięcego samej technologii czy rozwiązania. W tej chwili nie dysponujemy „autonomiczną sztuczną inteligencją” podejmującą całkowicie niezależne decyzje. A i w takim przypadku nie powinno się kierować odpowiedzialności na robota czy algorytm.
Aktualnie możliwości ograniczają się do tworzenia mniej lub bardziej zaawansowanych algorytmów, które dokonują wyborów na podstawie podane przez programistów założenia i kryteria. Z tego powodu cała odpowiedzialność wciąż spoczywa na autorach takich algorytmów. Jeśli autonomiczny samochód spowoduje wypadek, sąd ustala okoliczności sprawy i podejmuje decyzje, w jakim stopniu odpowiedzialność spoczywała na kierowcy, a w jakim na producencie samochodu, jak np. w słynnej sprawie Toyoty w USA i „niekontrolowanego przyspieszania”. W zasadzie w przypadku algorytmów stosowane są podobne rozwiązania. Nie ma obecnie przepisów, które zwalniałyby twórców oprogramowania z odpowiedzialności zawinionej przez nich w trakcie projektowania swoich rozwiązań – tak było w przypadku sprawy Boeinga 737 Max i systemu MCAS (algorytmy korygujące charakterystyki lotu maszyny, której parametry lotne się zmieniły pod wpływem zmian konstrukcyjnych spowodowanych modernizacją) – tłumaczy dr Piotr Kaczmarek-Kurczak, ekspert w dziedzinie nowych technologii z Katedry Przedsiębiorczości i Etyki w Biznesie Akademii Leona Koźmińskiego.
Marzenia o wojnach robotów?
Pozostają pytania związane przede wszystkim z kwestiami militarnymi. De facto wojsko bierze odpowiedzialność za wszelkie skutki swoich działań, nawet jeśli nie są inicjowane przez człowieka. Przypadkowe odpalenia rakiety za pomocą zdalnego systemu raczej zostanie przerzucone na armię. Co jednak z autonomicznym systemem, który na podstawie wytycznych stworzonych przez człowieka podejmie decyzje o zabiciu żołnierza, przypadkowego przechodnia lub zmieceniu z powierzchni ziemi całej wioski. Czy jakiś generał weźmie za to odpowiedzialność, a może będzie ona rozłożona na firmę, producenta oprogramowania i armię?
W armii przyjęte jest założenie – ale nigdzie niesformalizowane – że decyzja o rozpoczęciu walki oraz komendy inicjujące zabijanie ludzi zawsze powinny być inicjowane przez człowieka. To było uzasadnieniem wprowadzenia zakazu stosowania min lądowych (które zabijają ludzi „automatycznie i autonomicznie”). Czy ta zasada utrzyma się na współczesnym polu walki – raczej wątpliwe, wiele krajów przecież nie ratyfikowało układu o zakazie min lądowych. Dlatego ostateczne decyzje są zawsze zatwierdzane przez ludzi – również decyzje o uruchomieniu takich algorytmów i odpowiedzialność za takie działanie spada na ich inicjatora (tak jak odpowiedzialność za zatoniecie statku, ponosi strona, która postawiła minę morską na jego szlaku) – zauważa dr Piotr Kaczmarek-Kurczak.
„Algorytmy knują” tuż pod naszym nosem
Wspomniane przykłady są bardzo jaskrawe. Jednak problem polega na tym, że nie dostrzegamy też prostych zagrożeń. Takich, które wydają się mniej oczywiste, niż autonomiczne pojazdy czy uzbrojone roboty. Powoli w nasze życie wkraczają rozwiązania, które wykorzystują już technologie wykorzystujące SI. A zatem mamy systemy, które analizują i podpowiadają czy powinnyśmy zostać przyjęci do pracy, czy też nie. Banki i firmy ubezpieczeniowe testują rozwiązania mające na celu tworzenie skrojonych dla naszych potrzeb ubezpieczeń czy też usług. Na ulicach miast testowaną są rozwiązania pomagające kierować ruchem czy analizować niebezpieczne sytuacje.
To algorytmy zaczynają decydować czy dana firma złoży nam ofertę i jaka ona będzie. Zbierają dane, które w zasadzie nie wiadomo jeszcze, w jaki sposób będą wykorzystane. Czy mamy czytelność tych decyzji? A może firmy informują nas, jak dokonują selekcji za pomocą tych algorytmów, pod jakim kątem? Czy firma wysyła wraz z decyzją o stworzeniu oferty obszerny opis, na jakiej podstawie została ona przeprocesowana? Oczywiście nie. Tych transparentnych działań na razie nie ma.
Trudno też uwierzyć, aby na tym etapie testów i początkowych wdrożeń ktokolwiek skłaniał się do „sprzedawania” takich informacji na forum. Także w Polsce z tą transparentnością nie jest najlepiej. Jeszcze kilka lat temu Fundacja Panoptykon ostrzegała przed tworzeniem profili za pomocą algorytmów w urzędach pracy, o czym więcej w tym miejscu.
Etyczna SI na piedestale
Z tego nieco chaotycznego systemu wyłania się pewien bardzo niepokojący obraz. Oto mamy najróżniejsze, najbardziej zaawansowane technologie. Ogromna ilość danych do tej pory nie była przeanalizowana. Dzięki innowacyjnym rozwiązaniom budujemy przyszłości świata. USA i Chiny niekoniecznie się samą etyką przejmują, w dobie cyfryzacji swoich armii. Jednak niewątpliwe pojawiają się pierwsze próby ujednolicenia prawa, które nie blokowałoby rozwoju inwestycji poczynionych w SI, a jednocześnie byłoby zasłoną dymną dla rzeczników ochrony danych czy bezpieczeństwa i prawa do prywatności.
W zakresie etyki toczy się wzmożona debata na temat metody „projektowania dla wartości” („design for values”). Rozmowy są prowadzone zarówno przez instytucje Unii Europejskiej, w środowisku akademickim, jak również na poziomie międzynarodowym. O sztucznej inteligencji nie można dyskutować w oderwaniu od unijnych wartości i praw człowieka. Należy podkreślić, że również podejście oparte na etyce rodzi liczne wątpliwości. Przede wszystkim wartości, którymi kieruje się społeczeństwo, czy poszczególne jednostki różnią się i zależą np. od wychowania, kręgu religijnego, przekonań, jak również od kontekstu. Niejednokrotnie człowiek jest zmuszony podejmować niełatwe decyzje. W tym także wybierać tzw. „mniejsze zło”. Pojawia się zatem mnóstwo, nie tylko prawnych, ale także społeczno-technicznych luk – zauważa Katarzyna Gorzkowska.
Ryzyko związane z etyczną SI
W Europie z tematu „etyczna” SI zrobiono bardzo poważny temat i ubrano w klasyczne dla naszego regionu normy prawne czy też na razie wytyczne. CO może pójść nie tak? Przede wszystkim bardzo mocne akcentowanie, zdefiniowania i rygorystyczne trzymania się wizji etycznej SI może nieść za sobą konieczność zahamowania obecnie rozwijanych technologii. Ponadto wszystko zależało od skuteczności.
Jeśli okaże się, że opasłe tomy regulacji chroniących prawa człowieka czy obywatela okażą się tylko martwym prawem, pojawi się całkowity brak zaufania do instytucji walczących o te prawa. Nie ma złudzeń, ze wiele firm, a w szczególności technologicznych gigantów będzie chroniło się listkami figowymi w postaci deklaracji i manifestów, podobnie jak obie to amerykańska armia.
Nie ma to jednak przełożenia w sytuacji kiedy pojawi się wyższa konieczność w postaci obrony kraju, ochrony przed terroryzmem etc. etc. Te fasadowe działania form czy instytucji będzie można wpisać złotymi literami i powiesić w gabinecie prezesa firmy, ale nic z nich nie wyniknie. Co więcej mogą one tylko zwiększyć nieufność do technologii i pozbawiać miliony ludzi lepszego życia.
Etyczna SI? Uciekamy!
Pozostaje jeszcze kwestia zróżnicowania rozwiązań co do regionów czy liderów tworzących te programy. Co jeśli amerykańskie czy chińskie firmy zastrzegą, że oczywiście podzielą się innowacyjnymi rozwiązaniami, ale nie dostosują się do obwiązujących norm w Europie, czy też w Unii. Co z firmami, które wskutek rygorystycznego prawa dotyczącego etyki SI będą uciekać ze swoimi badaniami do państw trzecich, gdy taki zapisy nie istnieją lub są fikcją.
Należy zatem zastanowić się jak dalece etyczna SI, której wytyczne próbujemy dziś spiąć w ramach budowania przyszłego prawa, będzie możliwa do skutecznej realizacji. Czy pojawia się organy, które będą stały na straży etyki SI? A może instytucje, które na podstawie wytycznych będą przyznawać licencje danym firmom, czy danym rozwiązaniom na działanie w danym kraju, czy regionie świata. Na razie tego typu pomysły są w fazie marzeń legislatorów, ponieważ poziom wdrożeń tego typu rozwiązań jest stosunkowo niewielki. Instytucje odpowiedzialne za prawa użytkowników w sieci nie stworzyły jeszcze skutecznego prawa chroniąc jego obywateli przed działaniami big-techów.
Jak bardzo będziemy „etyczni”
Może okazać się w przyszłości, że etyczna SI jest niemożliwa do wdrożenia na poziomie, o jakim sobie wymarzyliśmy. Że ten poziom etyki będzie tak wysoki, jaki reprezentujemy my osobiście.
– Sztuczna inteligencja zawsze, przynajmniej do czasu, dopóki nie stworzymy prawdziwej, ogólnej SI, będzie tak etyczna jak jej twórcy. Jeśli twórcy będą ukrytymi rasistami, mizoginami, ksenofobami – to i ona taka będzie. Jeśli twórcy będą mieli ukrytą agendę ideologiczną – to i ona taka będzie. Trzeba zadbać, by technologia nie służyła ludziom za wymówkę – podsumowuje dr Piotr Kaczmarek Kurczak z ALK.
Artykuł: https://homodigital.pl/budowa-etycznej-si-w-swiecie-pozbawionym-etyki-czy-to-sie-uda/