Jedyny w Polsce serwis o internecie, prywatności i mediach społecznościowych pisany z perspektywy technologicznej, humanistycznej i społecznej

Na to pytanie twierdząco odpowiedziało zaskakująco wielu Europejczyków, którzy wzięli udział w ankiecie prywatnego uniwersytetu IE z hiszpańskiej Segowii. Jedna czwarta badanych stwierdziła, że wolałaby, aby za tworzenie nowych regulacji prawnych odpowiadali nie politycy, a sztuczna inteligencja. Jednocześnie ponad połowa ankietowanych uważa, że rozwój nowych technologii stwarza wiele zagrożeń, m.in. na rynku pracy.

Badanie przeprowadzono wśród 2,5 tys. respondentów z Wielkiej Brytanii, Hiszpanii, Niemiec, Francji, Irlandii, Włoch i Holandii w styczniu 2019 r. W odpowiedziach udzielanych przez ankietowane osoby widać wiele obaw związanych z gwałtownym rozwojem nowych technologii, które obecne są w niemal wszystkich dziedzinach naszego życia.

70 proc. badanych ocenia, że niekontrolowany rozwój technologiczny może wyrządzić społeczeństwu więcej złego niż dobrego, wyraźnie rysują się również obawy o to, jak nowe technologie wpływają na relacje międzyludzkie (przede wszystkim dzięki temu, że coraz więcej czasu spędzamy przed ekranami swoich urządzeń elektronicznych).

Sztuczna inteligencja powinna zastąpić polityków

Tego zdania była jedna czwarta uczestników ankiety. Według dyrektora działającego przy uniwersytecie w Segowii Center for the Governance of Change Diega Rubio, wyniki te odzwierciedlają brak zaufania, jakim darzymy obecne rządy sprawujące władzę w państwach członkowskich Unii Europejskiej i mogą poddawać w wątpliwość aktualność modelu demokracji przedstawicielskiej, do której przywykliśmy. Zdaniem Rubio chęć zastąpienia w procesach decyzyjnych polityków sztuczną inteligencją rzuca wyzwanie modelowi suwerenności społeczeństw.

Najchętniej władzę w ręce sztucznej inteligencji oddaliby Holendrzy (43 proc.), następnie zaś Brytyjczycy i Niemcy (po 31 proc.). Najostrożniej do tej kwestii odnoszą się Portugalczycy (jedynie 19 proc. deklaruje chęć zastąpienia polityków przez algorytmy).

Sztuczna inteligencja nie jest remedium na problemy demokracji

Decyzje podejmowane przez algorytmy nie mogą stanowić odpowiedzi na nasze rozczarowanie demokracją, które w ostatnich latach ujawniło się tak w krajach Unii Europejskiej, jak i w Stanach Zjednoczonych, gdzie w siłę rosną ruchy populistyczne.

Algorytmy działają w oparciu o dane, które pochodzą od człowieka. Bardzo często zbiory danych, na których „uczy się” sztuczna inteligencja mogą być zmanipulowane, a decyzje podejmowane przez algorytm w konsekwencji obciążone skrzywieniem, skłonnością do dyskryminacji i uprzedzeń. Manipulacja ta może być całkowicie świadoma, jak i zupełnie przypadkowa – warto jednak wziąć pod uwagę, że właśnie dzięki temu decyzje podejmowane w zautomatyzowanych procesach przez algorytmy nie są tak obiektywne, jak wielu wydaje się, kiedy myślą o neutralności światopoglądowej maszyn. Co więcej – ta ostatnia nie istnieje, a maszyna ma taki światopogląd, jaki narzucił jej programista podczas „uczenia” algorytmu w oparciu o zbiory zawierające określone typy danych.

Rozczarowani władzą wołamy do niej o pomoc, kiedy boimy się zmian

Warto wgłębić się w wyniki badania zespołu z Segowii. Chociaż ankieta uwidacznia rozczarowanie demokracją i poszukiwanie możliwości rozwiązania jej problemów w zautomatyzowanych procesach decyzyjnych, to to samo badanie wskazuje, iż większość z nas oczekuje, że rządy naszych krajów pomogą nam rozwiązać kłopoty związane z szybkim rozwojem nowych technologii.

67 proc. badanych uważa, że rządy państw powinny stworzyć specjalne podatki dla firm, które zamiast zatrudniać pracowników zlecają dotychczas wykonywaną przez człowieka pracę robotom. 70 proc. z kolei ocenia, że rządy powinny troszczyć się o pracowników zwolnionych w wyniku automatyzacji procesów pracy, nawet jeśli oznacza to podniesienie podatków w danym kraju.

// Gosia Fraser Więcej wpisów

Analityczka prywatności i cyberbezpieczeństwa, dziennikarka technologiczna. Interesuje się problematyką przemian społecznych w dziedzinie nowych technologii i psychologią mediów.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *