SI
: śr lut 06, 2019 4:17 pm
Sztuczna inteligencja
Nie wiem czy każdy z nas zdaje sobie sprawę na czym SI polega. Nim jednak dojdę do tego, należy zastanowić się na czym polega nasza inteligencja, w jaki sposób funkcjonujemy. Niestety tak się składa, że jakąś tam inteligencją jesteśmy obdarzeni wszyscy, ale nie wszyscy w jednakowy sposób. Jednym natura dała więcej, innym mniej, a jeszcze innym wyraźnie oszczędziła męczarni myślenia. Tutaj musimy oddzielić inteligencję od moralności. Jedno jest darem natury, to drugie wynikiem interakcji z własnym otoczeniem kulturowym. Krótko mówiąc istnieje takie samo prawdopodobieństwo spotkania inteligentnej kanalii, jak i delikatnie gapowatego “dobrego człowieka”. I tutaj zaczyna się problem, gdyż nie wszyscy jesteśmy w ten sam sposób inteligentni i nie wszyscy mamy dokładnie te same zasady moralne i co gorsza cele. No właśnie, zasady moralne.
Mogłoby się wydawać, że zasady moralne są uniwersalne, a ich celem jest nasze dobro, nas wszystkich jako jednostek i nas jako całości ziemskiej populacji. Ale czy tak doprawdy jest i czy jest to wykonalne? Wiele naszych zasad moralnych nakierowanych na dobro konkretnej jednostki stoi teoretycznie w dużym rozkroku ze z grubsza pojętym interesem populacji pojętym w sposób czysto biologiczny. Borykamy się z tym, ale jakoś idziemy do przodu. Nie dalej jak kilkadziesiąt lat temu grupa ludzkich bestii w brunatnych mundurach postanowiła ten problem definitywnie załatwić raz na zawsze. Ceną za ten eksperyment było życie około 80 milionów ludzkich istnień. Od tego czasu jesteśmy podobno mądrzejsi, bardziej humanitarni i generalnie nie dzielimy ludzi na gorszych lub lepszych, dając każdemu takie samo prawo do życia i rozwoju. Czyżby?
Nie jestem tego tak pewna. Skłaniam się raczej do twierdzenia, że bolesne doświadczenia niczego nas jeszcze nie nauczyły. Pominę wojny, od których roi się w tej chwili. Pominę konflikty społeczne choćby w Europie, sercu humanizmu. Pewna mentalność nadal czai się w zakamarkach naszej wspólnej świadomości. Oczywiście nie jest już ona ubrana w bryczesy, w końcu mamy XXI wiek. Przypominam sobie jednak komentarze na portalach społecznościowych po (na przykład) wprowadzeniu w Polsce programu “500+”, delikatnie sugerujące jaka to grupa ludzi najbardziej skorzysta na tym programie. Dla ułatwienia, nie sugerowano, że jest to szeroko pojęta grupa intelektualistów, ludzi twórczych lub kreatywnych, więc to utopione pieniądze. Ciekawe podejście?
Przejdźmy jednak do sztucznej inteligencji. Jej praktyczne wprowadzenie ma za zadanie zautomatyzowanie wielu procesów decyzyjnych, zrobienia tego świata lepszym, optymalizację naszych poczynań na tej planecie. Generalnie ułatwienie nam życia.
Systemy cyfrowe już dawno przekroczyły szybkością działania możliwości naszych mózgów. Mają dostęp do takiej ilości danych, jakiej nikt z nas nie jest w stanie nie tylko pojąć, ale sobie wyobrazić. Sztuczna inteligencja ma jeszcze mieć możliwość modyfikowania swoich możliwości, czyli tego co robią niektórzy z nas - uczenia się, usamodzielniania. Ogrom tych możliwości przekracza naszą wyobraźnię i z tego powodu bardzo niepokoi. Teoretyków i wizjonerów niepokoiło to jeszcze wtedy gdy nie mieliśmy takich możliwości technologicznych.
Jeszcze w 1942 roku Isaac Asimow w swoim opowiadaniu przedstawił kwestię regulacji stosunków pomiędzy człowiekiem i maszyną. Ujął to w tak zwanych prawach robotów w następujący sposób:
1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Jak się okazało, jakiś czas później wątpliwości doprowadziły Asimowa do sformułowania prawa zerowego:
0. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
No i mamy już na początek problem pomiędzy interesami jednostki i ogółu, a to nie jest problem zero-jedynkowy. Jak więc zachowa się automatyczny system sztucznej inteligencji w wielu przypadkach, w których my ludzie kierujemy się naszą moralnością, kompromisem, empatią i sercem?
Czy dojdzie do wniosku, że kara śmierci dla wielokrotnego mordercy jest jednak w naszym interesie? Jak zadecyduje, jeśli z badań wód płodowych będzie wynikało, że potomek będzie ułomny psychicznie? Czy dojdzie do wniosku, że lepiej poświęcić życie dziesięciu osób dla ratowania dwudziestu, czy poszuka trzeciej drogi? Czy dojdzie któregoś dnia do wniosku, że w interesie ludzkości będzie jej ograniczenie do połowy? Czy wprowadzi minority report? Czy będzie miał wątpliwości i nadzieję? Wiele pytań.
Myślę, że żaden protokół moralny zamontowany maszynie nie będzie w stanie wyeliminować zagrożenia “faszyzmem” maszyn, gdyż faszyzm to właśnie zero-jeden. Podobno komputery kwantowe będą w stanie posiadać stany pośrednie pomiędzy zero i jeden, ale czy to będzie to samo co my nazywamy wątpliwościami, co skłania nas do ryzyka zaufania drugiej osobie, do bezinteresowności, do tego co w nas jednak ludzkie?
Myślę, że lepiej będzie wpierw uporać się z naszymi problemami jako ludzkość, nim oddamy decyzje maszynom. To potrwa a Wy tymczasem możecie sobie już skorzystać z pomocy i pogadać z takim sztucznym inteligentem, na przykład w polskiej sieci Orange, dzwoniąc na numer +48 510 100 100. Ja po chwili startowej stwierdziłam żeby czas oczekiwania na ich misje w moim życiu wydłużyć o co najmniej 100 lat.
w.
Nie wiem czy każdy z nas zdaje sobie sprawę na czym SI polega. Nim jednak dojdę do tego, należy zastanowić się na czym polega nasza inteligencja, w jaki sposób funkcjonujemy. Niestety tak się składa, że jakąś tam inteligencją jesteśmy obdarzeni wszyscy, ale nie wszyscy w jednakowy sposób. Jednym natura dała więcej, innym mniej, a jeszcze innym wyraźnie oszczędziła męczarni myślenia. Tutaj musimy oddzielić inteligencję od moralności. Jedno jest darem natury, to drugie wynikiem interakcji z własnym otoczeniem kulturowym. Krótko mówiąc istnieje takie samo prawdopodobieństwo spotkania inteligentnej kanalii, jak i delikatnie gapowatego “dobrego człowieka”. I tutaj zaczyna się problem, gdyż nie wszyscy jesteśmy w ten sam sposób inteligentni i nie wszyscy mamy dokładnie te same zasady moralne i co gorsza cele. No właśnie, zasady moralne.
Mogłoby się wydawać, że zasady moralne są uniwersalne, a ich celem jest nasze dobro, nas wszystkich jako jednostek i nas jako całości ziemskiej populacji. Ale czy tak doprawdy jest i czy jest to wykonalne? Wiele naszych zasad moralnych nakierowanych na dobro konkretnej jednostki stoi teoretycznie w dużym rozkroku ze z grubsza pojętym interesem populacji pojętym w sposób czysto biologiczny. Borykamy się z tym, ale jakoś idziemy do przodu. Nie dalej jak kilkadziesiąt lat temu grupa ludzkich bestii w brunatnych mundurach postanowiła ten problem definitywnie załatwić raz na zawsze. Ceną za ten eksperyment było życie około 80 milionów ludzkich istnień. Od tego czasu jesteśmy podobno mądrzejsi, bardziej humanitarni i generalnie nie dzielimy ludzi na gorszych lub lepszych, dając każdemu takie samo prawo do życia i rozwoju. Czyżby?
Nie jestem tego tak pewna. Skłaniam się raczej do twierdzenia, że bolesne doświadczenia niczego nas jeszcze nie nauczyły. Pominę wojny, od których roi się w tej chwili. Pominę konflikty społeczne choćby w Europie, sercu humanizmu. Pewna mentalność nadal czai się w zakamarkach naszej wspólnej świadomości. Oczywiście nie jest już ona ubrana w bryczesy, w końcu mamy XXI wiek. Przypominam sobie jednak komentarze na portalach społecznościowych po (na przykład) wprowadzeniu w Polsce programu “500+”, delikatnie sugerujące jaka to grupa ludzi najbardziej skorzysta na tym programie. Dla ułatwienia, nie sugerowano, że jest to szeroko pojęta grupa intelektualistów, ludzi twórczych lub kreatywnych, więc to utopione pieniądze. Ciekawe podejście?
Przejdźmy jednak do sztucznej inteligencji. Jej praktyczne wprowadzenie ma za zadanie zautomatyzowanie wielu procesów decyzyjnych, zrobienia tego świata lepszym, optymalizację naszych poczynań na tej planecie. Generalnie ułatwienie nam życia.
Systemy cyfrowe już dawno przekroczyły szybkością działania możliwości naszych mózgów. Mają dostęp do takiej ilości danych, jakiej nikt z nas nie jest w stanie nie tylko pojąć, ale sobie wyobrazić. Sztuczna inteligencja ma jeszcze mieć możliwość modyfikowania swoich możliwości, czyli tego co robią niektórzy z nas - uczenia się, usamodzielniania. Ogrom tych możliwości przekracza naszą wyobraźnię i z tego powodu bardzo niepokoi. Teoretyków i wizjonerów niepokoiło to jeszcze wtedy gdy nie mieliśmy takich możliwości technologicznych.
Jeszcze w 1942 roku Isaac Asimow w swoim opowiadaniu przedstawił kwestię regulacji stosunków pomiędzy człowiekiem i maszyną. Ujął to w tak zwanych prawach robotów w następujący sposób:
1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
3. Robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Jak się okazało, jakiś czas później wątpliwości doprowadziły Asimowa do sformułowania prawa zerowego:
0. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
No i mamy już na początek problem pomiędzy interesami jednostki i ogółu, a to nie jest problem zero-jedynkowy. Jak więc zachowa się automatyczny system sztucznej inteligencji w wielu przypadkach, w których my ludzie kierujemy się naszą moralnością, kompromisem, empatią i sercem?
Czy dojdzie do wniosku, że kara śmierci dla wielokrotnego mordercy jest jednak w naszym interesie? Jak zadecyduje, jeśli z badań wód płodowych będzie wynikało, że potomek będzie ułomny psychicznie? Czy dojdzie do wniosku, że lepiej poświęcić życie dziesięciu osób dla ratowania dwudziestu, czy poszuka trzeciej drogi? Czy dojdzie któregoś dnia do wniosku, że w interesie ludzkości będzie jej ograniczenie do połowy? Czy wprowadzi minority report? Czy będzie miał wątpliwości i nadzieję? Wiele pytań.
Myślę, że żaden protokół moralny zamontowany maszynie nie będzie w stanie wyeliminować zagrożenia “faszyzmem” maszyn, gdyż faszyzm to właśnie zero-jeden. Podobno komputery kwantowe będą w stanie posiadać stany pośrednie pomiędzy zero i jeden, ale czy to będzie to samo co my nazywamy wątpliwościami, co skłania nas do ryzyka zaufania drugiej osobie, do bezinteresowności, do tego co w nas jednak ludzkie?
Myślę, że lepiej będzie wpierw uporać się z naszymi problemami jako ludzkość, nim oddamy decyzje maszynom. To potrwa a Wy tymczasem możecie sobie już skorzystać z pomocy i pogadać z takim sztucznym inteligentem, na przykład w polskiej sieci Orange, dzwoniąc na numer +48 510 100 100. Ja po chwili startowej stwierdziłam żeby czas oczekiwania na ich misje w moim życiu wydłużyć o co najmniej 100 lat.
w.