Czy moralność da się opisać i zakodować w sztucznej inteligencji? Da się! Wszystko można, trzeba tylko chcieć.

W sytuacji, w której chcemy zaprojektować system AI zgodny z jakimś kodeksem etycznym czy po prostu zasadami (w znaczeniu, że ten system będzie „postępował” w założony sposób), natrafimy na wiele pytań, na które dzisiaj może być nam trudno odpowiedzieć. Sam dobór danych, które będziemy chcieli wykorzystać do wytrenowania modelu, na którym oprzemy nasz system, może być problematyczny, szczególnie jeżeli zależy nam na zapewnieniu fairness, czyli swoistej sprawiedliwości i uczciwości (jakkolwiek z inżynieryjnego punktu widzenia jest to nadal wyzwanie).

W swoich felietonach często piszę o odpowiedzialnym i etycznym podejściu do projektowania, rozwijania, wdrażania i stosowania systemów sztucznej inteligencji, ale dzisiaj chciałbym pójść o krok dalej i „porozmawiać” o tym, czy same systemy możemy zaprogramować tak, aby ich działania i decyzje były zgodne z założonym i wybranym sposobem postępowania, który nazwijmy roboczo kodeksem etycznym dla AI. Nie ukrywam, że felieton powstał dzięki inspiracji książką „Moral AI: And How We Get There”, która nie tylko wskazuje wyzwania, ale także stara się podrzucić pomysły do rozwiązywania problemów.

AI jako wsparcie procesów decyzyjnych

To, czym dzisiaj się zajmiemy, to następujący problem praktyczny. Wyobraźmy sobie, że tworzymy system AI, który ma wspierać procesy decyzyjne lekarza, który wybiera pacjentów mających otrzymać nerkę do przeszczepu. Taka decyzja lekarza często musi być podjęta szybko, np. w związku z wypadkiem trzeba szybko przeprowadzić operację na pacjencie. Lekarz ma dostęp do listy zawierającej „ileś” cech, które przypisuje się pacjentom, np. wiek, długość oczekiwania w kolejce, stan zdrowia. Niektóre listy mogą uwzględniać też inne cechy, jak np. etniczność, liczba osób na utrzymaniu czy stan finansowy.

Nie wchodźmy głębiej w ten temat, bo i on jest dość kontrowersyjny, jak zawsze w przypadku wykorzystania danych szczególnej kategorii (wrażliwych). Taki system powinien zapewnić, że rekomendacje dla lekarzy pozbawione będą ładunku emocjonalnego, „zmęczenia” czy subiektywizmu, który może towarzyszyć decyzji. System powinien więc postępować etycznie poprawnie, jakkolwiek dzisiaj trudno jednoznacznie ocenić, co to znaczy „etycznie”. O tym za chwilę. Innym przykładem może być „znany i lubiany” przypadek „zabójczego” samochodu półautonomicznego, który jest dobrym punktem do dyskusji (warto zapoznać się ze sprawą Elaine Herzberg) i trzeba się nad nim pochylić. To jednak innym razem.

Załóżmy więc, że naszym zadaniem jest zaprojektowanie systemu, który postępuje moralnie poprawnie. Co możemy zrobić, żeby przybliżyć nas do realizacji projektu?

Trzy podejścia do zaprojektowania systemu AI

J. Schaich Borg, W. Sinnott-Armstrong i V. Conitzer wskazują na trzy podejścia, z których żadne nie rozwiązuje w 100 proc. naszych problemów, ale które warto pokazać. Oto one:

- podejście typu top-down,

- podejście bottom-down,

- podejście hybrydowe.

Każde podejście ma wady

W pierwszym przypadku zaczynamy od stworzenia pewnego zestawu zasad, które muszą być stosowane, np. przyjmujemy podejście oparte na konsekwencjalizmie zakładającym maksymalizację „dobrych” konsekwencji decyzji i minimalizację „złych”. Innymi słowy, przekładając to np. na koncepcję etycznej sztucznej inteligencji godnej zaufania, dążymy do realizacji zasad realizacji dobrostanu i minimalizacji szkód (nieszkodzenia). Problem z tym podejściem jest taki, że:

- trudno jest wybrać „właściwy” zbiór zasad i właściwie nie wiadomo, kto powinien o tym decydować,

- jak szczegółowe powinny być te zasady, tzn. czy idziemy w kierunku „generalizacji”, czy bardziej konkretnych, ale niescenariuszowych zasad,

- czy zasady rzeczywiście będą dobrze realizowane w praktyce,

- no i wreszcie, na ile ta sztywność będzie wpływała na autonomiczność systemu…

Trudny temat. Może więc trzeba zastosować drugie podejście, które zakłada, że system AI ma się uczyć na naszych zachowaniach i decyzjach, które można ocenić z perspektywy szeroko rozumianej moralności. Na tej podstawie system mógłby wyciągnąć „optymalny” model postępowania i tak też modelować konkretne działania. Jest to rozwiązanie „scenariuszowe”, w którym należy stworzyć odpowiedni zbiór danych treningowych, które odzwierciedlają jak najwięcej rzeczywistych przypadków „użycia”. W naszym przykładzie dystrybucji nerki – konkretne decyzje lekarzy. I tu już widać pierwszy problem.

Czy na podstawie konkretnych decyzji jesteśmy w stanie ustalić powody, którymi kierował się lekarz? Musielibyśmy raczej go odpytać i zidentyfikować, które cechy miały znaczenie, a które zostały przez niego zignorowane. Stworzenie takiego zbioru danych może być niemożliwe. Dane powinny być zróżnicowane, zapewniające realizację zasady fairness (i innych zasad istotnych dla danych) i obejmować wiele scenariuszy, które mogą być zrealizowane w danym kontekście. Wiadomo, że system AI będzie wykorzystywany w konkretnym celu, więc nie musi mieć „ogólnej” moralności, ale taką, której oczekujemy w danym przypadku użycia. I dobrze, i źle, bo być może ogólna moralność jest paradoksalnie łatwiejsza, choć pewnie „gorsza” niż ta kontekstowa. Innym wyzwaniem jest problematyka oceny, jakie scenariusze wybrać i kto powinien o tym decydować. Tutaj pojawiają się nam bowiem ryzyka związane z uprzedzeniami, które zawsze są elementem danych tworzonych przez człowieka. Jak więc zapewnić ich neutralność i obiektywność? I czy jest to w ogóle możliwe?

A model hybrydowy? Zakłada on połączenie „zestawu zasad” oraz scenariuszowego podejścia i wydaje się on dość korzystny, ale… ale niestety poza tym, że wydaje się najbezpieczniejszy, to jednak jego stworzenie może być dużym wyzwaniem operacyjnym i technologicznym. Musimy w końcu „obejść” problemy dla obu powyższych podejść i  jednocześnie zapewnić, że system będzie uwzględniał model top-down i model bottom-down. Dodatkowo musimy pamiętać, że systemy AI bazują na pewnych formułach matematycznych i statystyce, a systemy „uczące się” w czasie rzeczywistym dysponują pewną autonomicznością, co może przełożyć się na ich nieprzywidywalność, która dodatkowo będzie trudna do wyjaśnienia ze względu na „zjawisko” black-box, czyli trudności w wyjaśnieniu oraz interpretacji wyników działania systemu. Taki system powinien podlegać też odpowiedniemu systemowi zarządzania jakością oraz nadzoru człowieka, co potęguje wskazane wyzwania.

Czy jest to niewykonalne? Cóż, dzisiaj możemy powiedzieć, że jest to ogromne wyzwanie wymagające bardzo dużej wiedzy, zdolności do przyjmowania kompromisów oraz wiedzy domenowej dostarczanej przez interdyscyplinarne zespoły. Z technicznego punktu widzenia nie jest to „aż tak trudne”, ale problemem jest dostępność danych, bo czy takie dane w ogóle istnieją? No i pojawia się tu zasadnicze pytanie, którym zakończę dzisiejszy felieton: czy rzeczywiście potrzebujemy takich rozwiązań AI, które wymagają „moralnej AI”? Do tematu wrócę w kolejnych felietonach.

Autor jest partnerem odpowiedzialnym za AI & CyberSec w ZP Zackiewicz & Partners, CEO w GovernedAI