robot sztuczna inteligencja AI

Czy prawo ureguluje zasady działania sztucznej inteligencji?

Sztuczna inteligencja, czyli AI, znajduje zastosowanie w różnorodnych branżach, od medycyny po edukację. Może z nami rozmawiać, generować wizerunek postaci lub przygotowywać tekst. Ma ogromne możliwości, ale… wiąże się z nimi także szereg zagrożeń. Jak reaguje na to prawo? Czy używanie narzędzi AI jest w jakikolwiek sposób objęte sankcjami legislacyjnymi? Sprawdźmy to!

Narzędzia sztucznej inteligencji funkcjonują już w sieci. Mają wszechstronne zastosowanie i wykonują niekiedy czynności, które jeszcze nie tak dawno temu były wykonywane przez człowieka. Rozwój AI sprawia, że zakres obowiązków tego rodzaju technologii zaczyna być coraz szerszy, co skłania do zadawania pytań odnośnie prawnego ograniczenia jej działania.

Definicja sztucznej inteligencji

AI, termin ukuty w 1956 roku przez Johna McCarthy’ego, oznacza inteligencję urządzeń tworzonych przez człowieka, od komputerów po roboty. Jest to swego rodzaju inteligencja, którą wykazują urządzenia przygotowane przez człowieka (np. komputer, robot, narzędzie budowlane lub kuchenne). Polega na wygenerowaniu takich algorytmów działania, aby urządzenie częściowo zachowywało swoją niezależność i potrafiło opracowywać własne rozwiązania na bazie odpowiedniego oprogramowania i modeli.

Kluczowe aspekty AI:

  • logiczne rozumowanie maszyny, analizę przekazywanych komunikatów;
  • generowanie odpowiedzi zgodnych z oczekiwaniami odbiorcy danego komunikatu;
  • podejmowanie decyzji, po analizie wprowadzonych zmiennych;
  • umiejętność analizy zmiennych w taki sposób, aby generowane odpowiedzi nie były utartymi schematami, a oryginalnymi tezami.

Warto zauważyć, że sztuczna inteligencja ma długą historię, sięgającą lat 50. XX wieku. Chociaż termin ten zyskał powszechną popularność przez działanie ChataGPT (oprogramowanie do generowania treści), to AI była używana wiele lat wcześniej. Jednym z najsłynniejszych przykładów zastosowania sztucznej inteligencji jest mecz szachowy między komputerem Deep Blue i słynnym szachistą, arcymistrzem Garrim Kasparowem. Podkreślmy, że urządzenie wygrało po zaciętym pojedynku.

Czytaj także: Nadprzewodnik działający w temperaturze pokojowej – mistyfikacja czy rewolucja w elektronice i tani prąd?

Sztuczna inteligencja: Potencjał i ryzyka

Sztuczna inteligencja ma bardzo szeroki zakres działania. Może m.in. wspomagać algorytmy odpowiadające za ruchy przeciwników w grach komputerowych, umożliwia generowanie treści tekstowych (np. pisanie tekstów), może pełnić rolę konsultantów telefonicznych lub chatbotów, a nawet wstępnie diagnozować choroby bez konieczności interwencji lekarskiej.

Narzędzia AI potrafią też modyfikować zdjęcia lub materiały wideo (bez konieczności eksperckiej wiedzy ze strony użytkownika), a nawet generować wizerunki osób, które tak naprawdę nie istnieją. Z funkcjonalnością, szansami i możliwościami sztucznej inteligencji wiąże się jednak szereg zagrożeń. Jakich?

  • Błędne wnioski i źle interpretowane dane – działanie sztucznej inteligencji może wprowadzać w błąd. AI nie jest nieomylne i może doprowadzić do nieprawidłowych wniosków. To groźne, szczególnie jeżeli używamy sztucznej inteligencji do tworzenia treści na strony internetowe lub używamy jej jako bezkrytycznie funkcjonującej wyszukiwarki.
  • Brak czynnika ludzkiego – sztuczna inteligencja nie ma empatii, współczucia, nie potrafi modulować głosu czy uwzględniać nastroju. To stanowi niekiedy problem np. w kontaktach z drugim człowiekiem (np. przy konsultacjach telefonicznych).
  • Wykorzystanie możliwości AI do łamania prawa – wygenerowanie wizerunku osoby trzeciej może służyć do wyłudzenia środków finansowych, a zmodyfikowane zdjęcia (np. zawierające treści pornograficzne) mogą być wykorzystywane do szantażu. Zdarza się też korzystanie z funkcjonalności AI do generowania treści pedofilskich.
  • Łamanie praw autorskich, plagiatowanie – niestety coraz częściej uczniowie czy studenci wykorzystują AI do generowania wypracowań, zadań na zajęcia, a nawet prac dyplomowych. Generowanie treści przez sztuczną inteligencję może często łamać prawa autorskie (np. poprzez łączenie obrazów), a także plagiatować inne treści dostępne w sieci.

Powyższe kwestie odnoszą się nie tylko do odpowiedzialności moralnej za np. generowanie fałszywych, nagich zdjęć osób postronnych, ale też odpowiedzialności karnej. Co na ten temat mówi prawo? Postanowiliśmy to sprawdzić.

człowiek sztuczna inteligencja AI

Sztuczna inteligencja jest (według naukowców mylnie) uczłowieczana. Jej „ludzkie” odruchy nie są jednak największym zagrożeniem (fot. pixabay.com)

Obecny stan prawny dotyczący AI w Polsce i UE ulega ciągłym zmianom i adaptacji do nowych wyzwań technologicznych.

Jeżeli chodzi o polskie prawodawstwo, to zacznijmy od tego, że wszelkiego rodzaju elementy stworzone na bazie AI nie podlegają pod ustawę Prawo autorskie. Nie są więc traktowane jak utwory, nie są objęte ochroną i twórcom „dzieł” opartych na sztucznej inteligencji nie przysługują prawa autorskie majątkowe czy osobiste.

Nie ma na ten moment żadnych przepisów prawnych, które ograniczałyby lub ewidencjonowały działanie sztucznej inteligencji w przestrzeni publicznej. Ministerstwo Sprawiedliwości w marcu 2023 roku wskazało też, że nie ma na ten moment jakichkolwiek planów, aby takie ograniczenia wprowadzić.

Nie oznacza to jednak, że w przyszłości nie będzie ustaw w tym zakresie. Bardzo możliwe, że tego rodzaju zmiany w prawie wejdą po uchwaleniu przepisów obowiązujących na terenie całej Unii Europejskiej. Parlament Europejski od dłuższego czasu zajmuje się bowiem analizą zagrożeń ze strony AI i ograniczeniem tego rodzaju działania.

Jak jest natomiast w innych krajach Unii Europejskiej? Pojedyncze państwa nakładają już sukcesywnie ograniczenia na możliwości sztucznej inteligencji. Tak jest np. we Włoszech. Kraj ten zablokował funkcjonowanie aplikacji ChatGPT. W uzasadnieniu możemy przeczytać, że według włoskiego inspektora danych osobowych właściciel tekstowego AI (firma OpenAI) nie spełnia dyrektywy RODO.

Z kolei w czerwcu 2023 roku w Parlamencie Europejskim powstał akt prawny, który dzieli zjawiska AI ze względu na ryzyko niebezpieczeństwa dla społeczeństwa. Dotyczy np. wykorzystania sztucznej inteligencji do manipulowania ludzi.

Niezależnie od wszystkiego pamiętajmy, że wykorzystywanie sztucznej inteligencji do szantażu, wyłudzenia środków, oszustwa, szerzenia pedofilii czy generowania prac dyplomowych jest przestępstwem i podlega pod polski kodeks karny. Osobne przepisy związane z AI nie są tutaj konieczne.

AI Sztuczna inteligencja Pixar

AI może wygenerować wizerunki znanych postaci w formie bohaterów bajek Pixar. Jak do takich obrazów odnosi się prawo? (fot. REDDIT)

Przyszłe regulacje AI: Perspektywy i potencjalne kierunki

Sztuczna inteligencja najpewniej będzie w niedługim czasie objęta ograniczeniami i sankcjami, gdyż jej działanie może prowadzić do wielu niekontrolowanych sytuacji, które albo przekraczają prawo, albo balansują na jego granicy.

Wiadomo, że Unia Europejska ma obserwować rozwój AI i „zapewniać, aby ta rozwijała się w kierunku działania na rzecz ludzkości”.

W praktyce ograniczeniami dotknięte będą z całą pewnością funkcje powiązane z cyberbezpieczeństwem, generowaniem treści o charakterze pornograficznym czy tzw. deep fake (czyli bardzo realnie wyglądające przeróbki zdjęć czy wideo, służące często do kompromitowania drugiego człowieka).

Wiadomo, że np. europejskie prawodawstwo (które będzie obowiązywać także w Polsce) obejmie wyraźne oznaczenie deep fake, aby nie budził on jakichkolwiek wątpliwości. Warunkami przejrzystości mają być sankcjonowane także treści generowane przez ChatGPT, a materiały źródłowe, którymi posiłkuje się narzędzie będą musiały być odpowiednio wyszczególnione.

Dodajmy także, że Parlament Europejski chce także przeciwdziałać niekontrolowanemu wpływowi AI na rynek pracy. Wdrożenie sztucznej inteligencji w poszczególnych firmach ma być poprzedzone rozmowami z działającymi w przedsiębiorstwie związkami zawodowymi.

Tagi: , , , , .

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *