W poprzedniej części wymieniliśmy 3 z kilku z najpoważniejszych dylematów związanych z rozwojem sztucznej inteligencji (AI). Oto dalszy ciąg artykułu.
4. Sztuczna głupota. Jak możemy chronić się przed błędami?
Inteligencja pochodzi z uczenia się, czy jesteś człowiekiem czy maszyną.Systemy zazwyczaj mają fazę treningową, w której „uczą się” wykrywać właściwe wzory i postępują zgodnie z ich danymi wejściowymi. Gdy system zostanie w pełni przeszkolony, może przejść do fazy testowej, gdzie zostanie trafiony z większą liczbą przykładów i zobaczymy, jak to działa.
Oczywiście faza szkolenia nie może obejmować wszystkich możliwych przykładów, z którymi system może sobie poradzić w rzeczywistym świecie.Systemy te można oszukać w sposób, w jaki ludzie by nie byli. Na przykład losowe wzory kropek mogą prowadzić maszynę do „zobaczenia” rzeczy, których tam nie ma. Jeśli polegamy na AI, aby wprowadzić nas w nowy świat pracy, bezpieczeństwa i wydajności, musimy zapewnić, że maszyna będzie działać zgodnie z planem i że ludzie nie będą w stanie jej pokonać, aby wykorzystać ją dla własnych celów.
5. Rasistowskie roboty. Jak wyeliminować stronniczość AI
Chociaż sztuczna inteligencja jest w stanie przetwarzać szybkość i pojemność znacznie przekraczającą możliwości ludzi, nie zawsze można ufać, że jest uczciwa i neutralna. Google i jej spółka macierzysta Alphabet są jednym z liderów w dziedzinie sztucznej inteligencji, jak widać w usłudze Google Photos, gdzie AI służy do identyfikacji osób, obiektów i scen. Ale może się to nie udać, np. Gdy kamera nie zauważyła wrażliwości rasowej lub gdy oprogramowanie używane do przewidywania przyszłych przestępców wykazywało stronniczość wobec Czarnych.
6. Bezpieczeństwo. Jak utrzymać AI w bezpiecznym miejscu przed przeciwnikami?
Im mocniejsza staje się technologia, tym bardziej można jej używać zarówno z powodów nikczemnych, jak i dobrych. Dotyczy to nie tylko robotów produkowanych w celu zastąpienia ludzkich żołnierzy, czy broni autonomicznych, ale także systemów sztucznej inteligencji, które mogą powodować uszkodzenia, jeśli zostaną użyte złośliwie. Ponieważ walki te nie będą toczyć się tylko na polu bitwy, cyberbezpieczeństwo stanie się jeszcze ważniejsze. W końcu mamy do czynienia z systemem, który jest szybszy i bardziej zdolny niż my o rzędy wielkości.
7. Złe geny. Jak chronić się przed niezamierzonymi konsekwencjami?
W przypadku maszyny mało prawdopodobne jest występowanie złośliwości w grze, a jedynie brak zrozumienia pełnego kontekstu, w którym życzenie zostało wykonane. Wyobraź sobie system sztucznej inteligencji, który ma wyeliminować raka na świecie. Po wielu komputerach wypluwa formułę, która w rzeczywistości powoduje koniec raka - zabijając wszystkich na planecie. Komputer osiągnąłby swój cel „nigdy więcej raka” bardzo skutecznie, ale nie w sposób, w jaki ludzie tego chcieli.
8. Osobliwość. Jak kontrolować złożony inteligentny system?
Powodem, dla którego ludzie są na szczycie łańcucha pokarmowego, nie są ostre zęby lub silne mięśnie. Ludzka dominacja jest prawie w całości spowodowana naszą pomysłowością i inteligencją. Możemy lepiej wykorzystać większe, szybsze i silniejsze zwierzęta, ponieważ możemy tworzyć i wykorzystywać narzędzia do ich kontrolowania: zarówno narzędzia fizyczne, takie jak klatki i broń, jak i narzędzia poznawcze, takie jak trening i warunkowanie.
To stawia poważne pytanie o sztuczną inteligencję: czy pewnego dnia będzie miało taką samą przewagę nad nami? Nie możemy również polegać na „wyciągnięciu wtyczki”, ponieważ wystarczająco zaawansowana maszyna może przewidzieć ten ruch i się obronić. Oto, co niektórzy nazywają „osobliwością”: moment, w którym istoty ludzkie nie są już najbardziej inteligentnymi istotami na ziemi.
9. Prawa robotów. Jak zdefiniować humanitarne traktowanie sztucznej inteligencji?
W tej chwili systemy te są dość powierzchowne, ale stają się coraz bardziej złożone i przypominają życie. Czy możemy uznać, że system cierpi, gdy jego funkcje nagradzające dają mu negatywny wkład? Co więcej, tak zwane algorytmy genetyczne działają, tworząc wiele instancji systemu na raz, z których tylko najbardziej skuteczne „przetrwają” i łączą się, tworząc kolejną generację instancji. Dzieje się tak przez wiele pokoleń i jest sposobem na ulepszenie systemu. Nieudane wystąpienia zostaną usunięte. W którym momencie możemy uznać algorytmy genetyczne za formę masowego morderstwa?
Kiedy rozważymy maszyny jako istoty, które mogą postrzegać, czuć i działać, nie jest wielkim skokiem do rozważenia ich statusu prawnego. Czy powinni być traktowani jak zwierzęta o porównywalnej inteligencji? Czy rozważymy cierpienie maszyn „czujących”?
Brak komentarzy:
Prześlij komentarz
Podziel się swoimi uwagami