23 luty 2018

Sztuczna inteligencja. Zasady etyki na etapie projektowania

Udostępnij

Obserwacja rynku, badania i prognozy – wszystko to wskazuje na rosnące znaczenie działu informatyki określanego jako sztuczna inteligencja (SI). Odczuć to mogą wszyscy bezpośrednio, obserwując choćby, jak Google Translator z prowizorycznej pomocy językowej przeistoczył się – za sprawą sieci neuronowych – w przydatne narzędzie pracy. Jak na ten nowy trend może zareagować przedsiębiorca? Co w istniejącym i projektowanym prawie warto wziąć pod uwagę? W niniejszym artykule poruszona zostanie w szczególności kwestia zasad etyki w kontekście tworzenia rozwiązań sztucznej inteligencji, w tym także finansowanych z Programu Ramowego Horyzont 2020.

 

Próby definicji sztucznej inteligencji

Sztuczna inteligencja (SI lub AI od ang. artificial intelligence) nie doczekała się jeszcze definicji legalnej, czyli wynikającej z aktu prawnego.

Bez większego ryzyka można pokusić się o stwierdzenie, że nawet osoba niebędąca specjalistą w obszarze zaawansowanych technologii informatycznych intuicyjnie wyczuwa, co to znaczy. Być może istotny jest tu wpływ kultury – od wielu lat zjawisko to chętnie włączają do fabuł twórcy literatury, filmów i gier komputerowych z gatunku science fiction.

Pierwszy raz sformułowania „sztuczna inteligencja” użył John McCarthy w 1956 r. podczas konferencji naukowej, opowiadając o tym, jak daleko może posunąć się wykorzystanie maszyn do wykonywania procesów, które u człowieka nazwalibyśmy zachowaniami inteligentnymi1. Szerszą kategorią zwykle kojarzoną z SI jest cognitive computing, najczęściej tłumaczone jako systemy samouczące się (od kognitywne, tj. poznawcze).

Jednym z zadań badań naukowych w dziedzinie sztucznej inteligencji jest konstruowanie maszyn i programów komputerowych zdolnych do realizacji określonych funkcji umysłu i zmysłów niepoddających się prostej numerycznej algorytmizacji2.

Czasem zamiast określenia „sztuczna inteligencja” preferowane są takie terminy, jak „rozszerzona inteligencja” (ang. augmented intelligence) lub powołanie na jedną z wykorzystywanych metod SI (np. uczenie maszynowe – ang. machine learning). Termin ten wykuwa się w toku rozwoju zjawiska, ale dość prawdopodobne jest, że ostatecznie przyjmie się termin „sztuczna inteligencja”. Obserwowane obecnie wzmożone zainteresowanie tą technologią może doprowadzić do ukucia się ostatecznego terminu lub wręcz przeciwnie – zrazić ludzi do demonizowanego niekiedy „robota-intruza”, a wówczas termin zastąpi kolejny, kojarzący się lepiej i niebudzący już oporów wokół wartości i znaczeń językowych, które zdarzają się przy „sztucznej inteligencji”.

Zastosowanie SI w biznesie

Możliwości zastosowania technologii SI w biznesie już teraz jest bardzo wiele i śmiało można założyć, że w nieodległej przyszłości będzie ich znacznie więcej. Niewątpliwie sztuczna inteligencja jest narzędziem, z którego chętnie korzystają duże przedsiębiorstwa. Chodzi np. o:

  • programy do automatycznego tworzenia wiadomości prasowych,
  • programy asystentów głosowych (jak Siri, Alexa, Cortana, Google Assistant),
  • programy diagnostyczne stosowane w medycynie,
  • rozmaite narzędzia wykorzystywane przez instytucje finansowe, analizujące i przetwarzające ogromne ilości danych (tzw. big data) – na przykład do wyłapywania nietypowych transakcji potencjalnie związanych z przestępstwem,
  • analizę zapisu kamer CCTV pod kątem nieprawidłowości czy rozpoznawania konkretnych twarzy.

Można także znaleźć przykłady zastosowania tej technologii w:

  • transporcie i logistyce (chodzi nie tylko o autonomiczne pojazdy, np. samochody, statki, samoloty, drony czy o samochody z elementami diagnostyki ruchu, ale także takie zastosowania, jak prognozowanie wypadków samochodowych lub innych nieprawidłowości),
  • edukacji (np. spersonalizowanej pod kątem uczącego się),
  • muzyce (łącznie z samodzielnym tworzeniem kompozycji przez maszynę),
  • grach video (bardzo szerokie i różnorodne zastosowania, a także obszar testowania tej technologii),
  • filtrowaniu i przetwarzaniu informacji (np. pod kątem spamu, wyszukiwania, podpowiedzi – rekomendacji, znalezienia drogi na mapie, autoryzacji takich czynności jak choćby transakcja on-line itd.).

Analizę danych i boty, czyli programy wykonujące pewne czynności w zastępstwie człowieka, wykorzystuje się już dziś w marketingu, przy obsłudze klienta, w infoliniach czy – niestety – w walce politycznej czy szeroko rozumianym public relations. W przypadku takich usług i działań rozwój SI jest bardzo wyraźny. Sztuczna inteligencja od niedawna radzi sobie coraz lepiej z rozpoznawaniem głosu, twarzy, nadawaniem znaczenia obrazom, mówieniem, odczytywaniem pisma odręcznego (pismo drukowane już od dłuższego czasu jest odczytywane), a także tłumaczeniem czy prostym wnioskowaniem. Programy wykorzystujące jakąś technologię SI mogą być wykorzystywane w komputerach i urządzeniach mobilnych, a także w urządzeniach Internetu rzeczy (IoT – internet of things), technologiach ubieralnych (ang. wearables) czy robotyce, co otwiera wiele dalszych możliwości. Zdaniem niektórych powszechne wykorzystanie sztucznej inteligencji to nie jest kwestia odpowiedzi na pytanie „czy”, ale raczej „kiedy”3. Co więcej, otwierają się możliwości wynikające z tego, że te nowe technologie nie tylko mogą zostać wykorzystane w znanych modelach biznesowych, ale również spowodować powstanie zupełnie nowych modeli. Wykorzystanie tych technologii w biznesie jest oczywiście możliwe zarówno w zastosowaniach kierowanych do konsumentów (b2c), jak i do innych przedsiębiorców (b2b), ale także w innych, bardziej złożonych układach, choćby w coraz częściej spotykanych modelach zaliczanych do gospodarki współdzielenia (z ang. sharing economy) czy im podobnych.

Technologia SI może być również wykorzystywana w branży usług prawnych. W ślad za nomenklaturą anglosaską wyróżnia się m.in. tzw. sztuczną inteligencję i prawo, czyli zastosowania SI w informatyce prawniczej (inaczej tzw. legal tech), w tym choćby do czynności wnioskowania, argumentacji, analizy prawa i dokumentów (text mining), tworzenia prawa i rozstrzygania sporów on-line. Najbardziej znane są w kontekście legal tech są obecnie ROSS Intelligence firmy IBM (oparte na technologii Watson), dokonujące wstępnej analizy problemu prawnego, oraz Lex Machina, prognozująca wynik sprawy na podstawie danych. Istnieje też trend tworzenia rozwiązań opartych na analizie tekstu, np. treści umów.

Dla MŚP istotne w tym kontekście będzie, że technologie SI są również stosunkowo łatwo dostępne. Przykładowo, Google udostępnił bibliotekę posiadanej technologii SI znanej jako Tensor Flow na licencji open source. Jest to konkretne oprogramowanie na licencji open source typu Apache 2.04. Już dziś istnieją przykłady projektów, w których jedna osoba przygotowała autonomiczny samochód w miesiąc (George Hotz, 26-letni haker z San Francisco5). Tworzenie nowych rozwiązań SI będzie ograniczać zatem jedynie ludzka wyobraźnia.

W 2016 r. w międzynarodowej bazie start-upów Crunchbase było 1196 przedsiębiorstw zaliczanych do wykorzystujących SI – a to tylko te firmy, które uzyskały finansowanie z funduszy VC (ang. venture capital). Tworzenie biznesu związanego z branżą sztucznej inteligencji nie bez przyczyny jest popularne i cieszy się zainteresowaniem inwestorów. Największe firmy branży internetowej często są zainteresowane kupowaniem przedsiębiorstw zajmujących się SI lub przejmowaniem zespołów projektowych, związanych z określonym przedsiębiorstwem i powstałym w nim know-how. Nie można wykluczyć, że najsprawniejsze przedsiębiorstwa SI mogą się nawet stać konkurencją dla gigantów.

Równolegle do trendów gospodarczych powstają – może nieco zbyt późno – regulacje związane ze sztuczną inteligencją i robotyką oraz próby uporządkowania kierunku rozwoju tych technologii, aby już od samego początku, tzn. na etapie projektowania, były uwzględniane kwestie odpowiedzialności i etyki w szerokim sensie. Wpływ technologii na społeczeństwo, środowisko, rynek pracy czy samego człowieka (jego psychologię, postrzeganie, zachowania) bada się na tle ewoluujących relacji człowiek ‒ maszyna.

Warto pamiętać, że te trendy tworzą szanse nie tylko dla najbardziej rewolucyjnych innowacji, ale ogólnie dla wielu przedsiębiorców, także takich, którzy na początek zajmą się rozwojem niewielkiego wycinka określonej technologii. Szanse dla polskich inicjatyw w tej branży potwierdza m.in. fakt, że niektóre największe firmy informatyczne otwierają centra związane z rozwojem tych technologii właśnie w Polsce (np. Intel Compiler Center of Excellence otwarte w 2017 r. w Gdańsku). Można się spodziewać, że będzie także rosła liczba potencjalnych inwestorów i instrumentów finansowania, prywatnych i publicznych. Szansą dla innowacji tego rodzaju, również kierowaną do małych i średnich przedsiębiorstw, jest m.in. Program Ramowy UE Horyzont 2020, o którym nieco więcej w tym artykule.

Program Ramowy Horyzont 2020

Program Ramowy Horyzont 2020 jest jednym z najlepiej rozpoznawanych programów ramowych Unii Europejskiej. Powodem może być jego rozmach – jest to największy w historii program finansowania badań naukowych i innowacji w UE. Do rozdysponowania w okresie 2014‒2020 przeznaczono prawie 80 mld euro. Program ma na celu finansowanie koncepcji naukowych, badań, wdrożeń dotyczących produkcji i innych innowacji. Zgodnie z informacjami podanymi na stronie Krajowego Punktu Kontaktowego przykładowymi zagadnieniami przekrojowymi w programie są:

  • ułatwianie drogi „od pomysłu do przemysłu”,
  • interdyscyplinarne i międzysektorowe badania naukowe i innowacje,
  • nauki społeczne, ekonomiczne i humanistyczne,
  • wspieranie funkcjonowania i realizacji Europejskiej Przestrzeni Badawczej i Unii innowacji,
  • poszerzenie uczestnictwa w badaniach naukowych i innowacyjności w UE,
  • współpraca z państwami trzecimi,
  • zaangażowanie MŚP w badania naukowe i innowacje oraz szersze uczestnictwo sektora prywatnego,
  • zwiększenie atrakcyjności zawodu naukowca oraz
  • ułatwianie transgranicznej i międzysektorowej mobilności naukowców6.

Program Horyzont 2020 oferuje wiele różnych instrumentów, dostosowanych do potrzeb różnych sektorów gospodarki czy życia społecznego, ale także do wielkości i stopnia rozwoju przedsiębiorstw. Możliwych do zastosowania w technologiach AI instrumentów programu jest wiele i trzeba pamiętać, że możliwość zgłaszania wniosków jest ograniczona terminami. Dla przykładu można zwrócić uwagę na elementy programu przeznaczone specjalnie dla MŚP. Jednym z dostępnych ogniw, na które warto zwrócić uwagę, jest choćby Open Disruptive Innovation Scheme (identyfikator: SMEInst-01-2016-2017), czyli Otwarty Schemat Przełomowych Innowacji skierowany do MŚP i zachęcający do podejmowania wyzwań technologicznych wysokiego ryzyka, mogących wywoływać przełomowe („dysruptywne”) skutki w dziedzinie ICT. Istnieje również szereg programów dotyczących m.in. robotyki. Więcej informacji można uzyskać w wyszukiwarkach Komisji Europejskiej7.

Etyka w kontekście finansowania projektów

Kwestie etyki są w programie, podobnie jak w innych działaniach UE, wyraźnie zaznaczone. Komisja Europejska wymaga, aby wnioskujący o finansowanie w programie stosowali się do właściwych zasad etycznych już na etapie opracowywania koncepcji projektu. Od wnioskodawców oczekuje się zadeklarowania, na podstawie własnej oceny (ang. self-assessment), czy zgłoszony projekt nie budzi wątpliwości natury etycznej. W niektórych projektach mogą zostać zastosowane procedury kontroli etycznej, przeglądu lub nawet rozbudowanego audytu8. Analiza strony etycznej projektu może dotyczyć różnych elementów, od najbardziej oczywistych, jak sposób obchodzenia się z danymi osobowymi, do najbardziej skomplikowanych, wymagających dużej wyobraźni i zdolności przewidywania skutków danego wdrożenia. Naturalnie, wiele kwestii etycznych pojawia się w projektach związanych np. z badaniem ludzi, zwierząt czy tkanek; przy produktach, które mogłyby zostać wykorzystane jako broń, w tym broń masowego rażenia, czy choćby tam, gdzie powstają istotne konsekwencje dla środowiska naturalnego czy też przewidywany jest udział mieszkańców krajów rozwijających się, gdzie nie wszystkie prawa człowieka są respektowane w zadowalającym stopniu. W tych obszarach nauczyliśmy się już kojarzyć, że wątpliwości natury nie tylko prawnej, ale i etycznej najprawdopodobniej się pojawią. Dla takich sytuacji przygotowano w programie dokumenty pomocnicze, wspierające przeprowadzenie własnej oceny etycznej rozwiązania9.

Dla projektów dotyczących robotyki i sztucznej inteligencji istotne mogą być wytyczne dotyczące produktów podwójnego zastosowania, o których mowa w rozporządzeniu Rady (WE) nr 428/2009 z dnia 5 maja 2009 r. ustanawiającym wspólnotowy system kontroli wywozu, transferu, pośrednictwa i tranzytu w odniesieniu do produktów podwójnego zastosowania (Dz.U. UE L 129 z 16.05.2012, s. 12), tj. takich produktów, programów i technologii, które są wykorzystywane w normalnych „cywilnych” zastosowaniach, ale mogą być też użyte w celach militarnych. Poradnik Komisji Europejskiej dot. dokonywania oceny w zakresie spełnienia norm etycznych z 2012 r. proponuje pytania i zagadnienia etyczne z obszaru produktów podwójnego zastosowania, takich jak roboty autonomiczne i drony w rozdziałach 8 i 910.

Wiele projektów SI nie będzie miało na celu stworzenia rozwiązań, w których będą się nasuwały tak istotne kwestie etyczne, jak opisane powyżej – należy wręcz zakładać, że większość projektów tego typu będzie ściśle związana z rozwojem oprogramowania codziennego użytku, a nie od razu fizycznych robotów, co każe zwrócić uwagę w pierwszej kolejności raczej na kwestie związane z cyberbezpieczeństwem, ochroną prywatności, dóbr osobistych i danych osobowych. Prawdopodobnie każdy twórca rozwiązań technicznych ma dziś świadomość, że etyka i bezpieczeństwo to fundamentalne zagadnienia mające na celu rzeczywistą ochronę użytkowników, co nierozerwalnie wiąże się z sukcesem lub porażką projektu i związanymi z tym przychodami w dłuższej pespektywie czasu.

Warto w tym kontekście przywołać bardziej ogólne zasady, do których UE odwołuje się w sporządzanych projektach aktów prawnych i podejmowanych działaniach. Zespoły pracujące przy takich projektach nawiązują m.in. do idei privacy by design (ochrona prywatności w fazie projektowania) i do idei security by design (secure by design – bezpieczeństwo w fazie projektowania). Postulatami privacy by design są: prewencja zamiast reagowania, inaczej podejście proaktywne; prywatność jako ustawienie domyślne; prywatność wpisana w funkcjonalność; pełna funkcjonalność („osiąganie sumy dodatniej, nie sumy zerowej”); bezpieczeństwo na wszystkich etapach (end-to-end) z punktu widzenia cyklu życia informacji; transparentność i przejrzystość; zorientowanie na potrzeby użytkownika w zakresie bezpieczeństwa prywatności11. Z kolei secure by design wiąże się obecnie głównie z tworzeniem oprogramowania komputerowego i zakłada jako swój cel minimalizowanie ryzyka związanego z potencjalnym wykryciem słabych punktów systemu lub błędów użytkownika12.

Powyższe zasady są w różnym stopniu kodyfikowane w aktach prawnych, takich jak RODO13, planowanym rozporządzeniu określanym jako ePrivacy14 czy w pracach nad przepisami prawa cywilnego dotyczącego robotyki, czyli w rezolucji Parlamentu Europejskiego z dnia 16.02.2017 r. zawierającej zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL))15, dalej jako rezolucja 2015/2103(INL). Ten ostatni dokument dostarcza użytecznych kompleksowych wskazówek w obszarze etyki, niejako wypełniających luki po bardziej podstawowych (żeby nie powiedzieć, stereotypowych) rozważaniach etycznych, które opisałam powyżej. Pomimo że rezolucja 2015/2103(INL) jest jednym z etapów prac, które zakończą się aktem prawnym obowiązującym bezpośrednio obywateli UE prawdopodobnie dopiero za kilka lat, warto zwrócić uwagę, że jednym z jej elementów są zasady etyczne w Karcie dotyczącej robotyki, zawierającej Kodeks postępowania etycznego dla inżynierów robotyki, Kodeks komitetów etycznych ds. badań, Licencję dla projektantów i Licencję dla użytkowników.

Prace prawodawcze w UE są prowadzone cierpliwie i zmierzają do regulacji technologii z jednej strony w sposób stopniowy, pragmatyczny i ostrożny (postulat Jeana Monneta), a z drugiej strony tak, aby sprzyjać powstaniu odpowiedzialnych i bezpiecznych innowacji. Powstające w toku tych prac dokumenty można już teraz implementować do składanych wniosków o finansowanie, choćby w Programie Horyzont 2020. W rozwiązaniach zaliczających się do dziedziny sztucznej inteligencji już na poziomie projektowania (design stage) oraz na etapie własnej oceny potencjalnego ryzyka i etycznych aspektów proponowanego rozwiązania można z pewnością odwoływać się m.in. do Karty dotyczącej robotyki ze względu na jej przekrojowość i fakt, że uwzględnia ona bardzo szerokie spektrum potencjalnych konsekwencji i zagrożeń.

Badania, które doprowadziły do przyjęcia rezolucji 2015/2103(INL) przez Parlament Europejski, skupiały się m.in. na problematyce autonomicznych robotów, nazwijmy to – maszyn fizycznie wyodrębnionych ze środowiska sieci. W proponowanej definicji pojawia się wymaganie „przynajmniej minimalnej formy fizycznej” jako elementu systemów cyberfizycznych, systemów autonomicznych i inteligentnych robotów autonomicznych. Prace dotyczyły też potencjalnego wpływu robotów na rynek pracy, odpowiedzialności cywilnej związanej z aktywnością robotów (włącznie z możliwością nadania robotom specyficznej osobowości prawnej) oraz praktyki stosowania tzw. praw Asimova16. W sporządzonych dokumentach i w rezolucji 2015/2103(INL) przewijają się oczywiście odwołania do sztucznej inteligencji, bez której potencjalna autonomiczność robotów byłaby niemożliwa. Prace te były prowadzone na takim poziomie ogólności, że można w nich szukać fundamentów systemu, który jest jednocześnie osadzony w podstawowych zasadach systemu prawnego Unii Europejskiej, a zarazem wystarczająco szczegółowy, by mieć przełożenie na inżynierię.

Funkcję przyjęcia Karty dotyczącej robotyki podano w pierwszym jej zdaniu: „Proponowany kodeks postępowania etycznego w dziedzinie robotyki będzie stanowić podstawę identyfikacji, kontroli oraz przestrzegania podstawowych zasad etycznych, począwszy od fazy projektu, a skończywszy na fazie rozwoju”. Celem Karty ma być „rozwiązanie potrzeby stosowania norm etycznych przez naukowców, praktyków, użytkowników i projektantów, a także wprowadzenie procedury umożliwiającej znajdowanie rozwiązań odnośnych dylematów etycznych oraz sprawienie, by systemy te funkcjonowały w sposób odpowiedzialny pod względem etycznym”. Zasady przewidziane w Karcie dla inżynierów przewidują cztery zasady wstępne i osiem zasad szczegółowych. Zasady wstępne to:

  1. zasada przynoszenia korzyści,
  2. zasada nieszkodliwości,
  3. zasada autonomii (człowieka),
  4. zasada sprawiedliwości.

Celem niniejszego artykułu jest przede wszystkim zwrócenie uwagi przedsiębiorców na istotność kwestii etycznych w kontekście finansowania i kontynuowania działalności oraz uświadomienie, że zasady etyczne są tylko ogólnymi ramami, które inżynierowie, programiści czy wynalazcy samodzielnie wypełniają treścią. Dlatego postanowienia Karty zostaną przybliżone tylko ogólnikowo.

Z punktu widzenia inżynierów sztucznej inteligencji można wyróżnić kilka szczegółowych zasad Karty, w tym:

  • zasady ostrożności i odpowiedzialności, które polegają na przewidywaniu potencjalnych negatywnych skutków systemu dla bezpieczeństwa człowieka, społeczeństwa i środowiska;
  • zasadę integracji, która ma zapewniać przejrzystość i przestrzeganie uzasadnionego prawa do dostępu do informacji przez inne podmioty, zaangażowane w badania nad robotyką i nimi zainteresowane;
  • zasadę ochrony prywatności, a więc zagwarantowania, że prywatne informacje są bezpiecznie przechowywane i wykorzystywane jedynie w odpowiedni sposób; że przetwarzanie danych, w tym interakcja z systemem wynika z ważnej zgody oraz że informacje są poufne i mogą być usunięte na żądanie.

Zgodnie z Kartą zasady takie powinny być stosowane na wszystkich etapach projektowania, a projektujący powinni przewidywać ryzyko, jakie stworzy ich rozwiązanie. Miernikiem tego ryzyka jest m.in. odniesienie się do ryzyka zwykle występującego w codziennym życiu – projektowane rozwiązania nie powinny go pogłębiać.

W części Karty pn. „Licencja dla projektantów” na projektantów nakłada się m.in. obowiązek stworzenia takiego systemu, w którym decyzje były możliwe do prześledzenia i odtworzenia, co ma niebagatelne znaczenie w systemach sztucznej inteligencji, także wobec przepisów wynikających z RODO. Projektanci powinni poza tym pamiętać, że interakcja ze stworzonym systemem powinna być możliwa do identyfikacji jako komputerowa (pozbawiona czynnika ludzkiego). Powinni też mieć na uwadze korzyści i zagrożenia kognitywne, psychologiczne i środowiskowe, w tym celu tworząc protokoły projektowania i oceny, a także współpracować z potencjalnymi użytkownikami i zainteresowanymi podmiotami. Aktywności projektantów powinny wpisać się w szerszy kontekst wartości (określonych w Karcie jako wartości europejskie), takie jak „godność, autonomia i prawo do samostanowienia, wolność i sprawiedliwość, w tym obowiązek niewyrządzania szkody, niepowodowania obrażeń, nieoszukiwania lub nieeksploatowania (narażonych) użytkowników”.

Już tylko na podstawie tych, wybranych elementów rezolucji 2015/2103(INL) widać, jak duży wpływ na pracę inżynierów mogą mieć prace UE zmierzające do ujednolicenia prawno-etycznych aspektów rozwoju technologii na poziomie europejskim. Niewątpliwie można te zasady i wskazówki etyczne wdrażać już teraz do tworzonych w ramach przedsiębiorstwa projektów, wniosków o finansowanie, opracowywanych procedur czy strategii.

Ewa Fabian

adwokat,e|s|b Adwokaci i Radcowie Prawni

Artykuł pochodzi z Biuletynu Euro Info 4 (175) 2017.



[1] F. Rossi, Artificial Intelligence: Potential Benefits and Ethical Considerations, European Parliament, briefing, 2016, s. 1, http://www.europarl.europa.eu/RegData/etudes/BRIE/2016/571380/IPOL_BRI(2016)571380_EN.pdf.

[2] A. Przegalińska, Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję, Kraków 2016, s. 239‒240.

[3] Jeden ze specjalistów SI, Frank Chen, zwraca uwagę, że takie firmy jak Google, Facebook i chińskie Baidu ogłosiły się firmami zorientowanymi na SI – jego zdaniem niebawem taka orientacja będzie z góry zakładana i nikt tego nie będzie akcentował, źródło: D. Terdiman, Here’s the Unofficial Sillicon Valley Explainer on Artificial Intelligence, www.thefastcompany.com, maj 2017.

[4] Licencje open source zakładają publiczne udostępnienie kodów źródłowych dla swoich programów. Istnieją różne rodzaje takich licencji i są one obwarowane różnymi warunkami korzystania, ale co do zasady realizują one zasady: (1) wolności korzystania z programu, w dowolnym celu; (2) wolności analizowania i zmieniania kodu źródłowego programu (zarówno przez indywidualnych programistów, jak i grupy osób, wśród których są zarówno programiści, jak i osoby posiadające inne umiejętności); oraz (3) wolności dalszego rozpowszechniania (komercyjnie lub niekomercyjnie), zarówno programu identycznego, jak otrzymany, jak i programu zmodyfikowanego.

[5] A. Vance, The First Person to Hack the iPhone Built a Self-Driving Car. In His Garage, Bloomberg Businesweek, grudzień 2015.

[6] Strona Krajowego Punktu Kontaktowego, maj 2017 http://www.kpk.gov.pl/?page_id=59.

[7] http://ec.europa.eu/research/participants/portal/desktop/en/opportunities/h2020.

[8] Tamże, http://www.kpk.gov.pl/?page_id=23786.

[9] Na przykład: H2020 Programme. Guidance. How to complete your ethics self-assessment, treść na dzień 12.07.2016 r., http://ec.europa.eu/research/participants/data/ref/h2020/grants_manual/hi/ethics/h2020_hi_ethics-self-assess_en.pdf.

[10] Tenże.

[11] Więcej informacji w prezentacji dr Wojciecha Wiewiórowskiego z dnia 7.03.2012 r., dostępna na stronach GIODO.

[12] Wikipedia (kwiecień 2017), hasło: Secure by design.

[13] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27.04.2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych), Dz.Urz. UE L Nr 119, s. 1.

[14] W czasie publikacji artykułu prace UE nad tym aktem prawnym są w toku.

[15] http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//PL.

[16] „Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. (2) Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem. (3) Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem (zob. „Zabawa w berka” (ang. Runaround), I. Asimov, 1943 r.) oraz (0) Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości”.