ChatGPT – autor treści oraz pomoc w pracy i szkole?

Kooperacja człowieka i technologii cyfrowych, w tym w szczególności generatywnej sztucznej inteligencji, zmienia perspektywę nie tylko tego, co robimy i w jaki sposób, ale także tego, kim możemy być jako ludzie. Temat komentują dr Dominika Kaczorowska-Spychalska z Wydziału Zarządzania UŁ i dr Karolina Sztobryn z Wydziału Prawa i Administracji UŁ.

ChatGPT okrzyknięty przełomowym rozwiązaniem na miarę maszyny parowej i Internetu, jest uznawany za innowację, która może znacząco przyspieszyć proces rozwoju społeczeństwa 5.0. Jego w zasadzie prawie nieograniczony dostęp do ogromnych baz danych może w niedalekiej przyszłości stanowić swego rodzaju przykład możliwości poszerzania ludzkich zdolności, czyniąc z człowieka kogoś o cechach znacząco wykraczających poza jego typowe uwarunkowania. 

O funkcjonalnościach ChatGPT napisano już całkiem sporo, chociaż wydaje się, że to jedynie wierzchołek przysłowiowej góry lodowej, patrząc przez specyfikę wybranych branż czy sektorów rynku, w tym w szczególności przemysłów kreatywnych i edukacji. I tak dla przykładu, Amazon systematycznie zwiększa swoją ofertę publikacji napisanych przez ChatGPT lub w kooperacji z nim. To zarówno poezja, literatura faktu, poradniki, jak i proza, w tym opowieści dla dzieci. Co ciekawe, dla części z nich ilustracje zostały wykonane przy wykorzystaniu innego narzędzia generatywnej sztucznej inteligencji – Dall-E2. Czy zatem narzędzia takie, jak ChatGPT doprowadzą nas do synergii czy raczej rywalizacji między człowiekiem a sztuczną inteligencją? 

Zakazywać czy uczyć wykorzystania?

Wiele mówi się także o kwestiach potencjalnego zakazu wykorzystania ChatGPT w szkołach czy na uczelniach, wskazując, że może on pociągać za sobą szereg potencjalnych nadużyć i wysyp prac pisanych przez sztuczną inteligencję, zamiast uczniów i studentów. Możliwości wyegzekwowania tego zakazu wydają się być mało realne, a przede wszystkim mało uzasadnione z punktu widzenia wyzwań, jakie stoją przed systemem edukacji. Może to doprowadzić do pewnego rodzaju pozorowania działań i bardzo iluzorycznej wizji świata, w której ChatGPT w zasadzie nie istnieje.

Zatem zamiast wprowadzać kolejne zakazy może warto jednak zastanowić się, jak wykorzystać tego typu narzędzia generatywnej sztucznej inteligencji w edukacji, zwiększając atrakcyjność procesu kształcenia i przybliżając go do środowiska, w którym młodzi ludzie funkcjonują na co dzień.

– podkreśla dr Dominika Kaczorowska-Spychalska z Wydziału Zarządzania UŁ

Wątpliwości budzi także kwestia poziomu „kreatywności” tworów wygenerowanych przez generatywną AI. I chociaż proces jej nauki pod wieloma względami jest analogiczny do nauki człowieka, to efekt nie zawsze jest do końca zadowalający. 

Przede wszystkim tak powstałym pracom zarzuca się brak unikatowości – powstałe dzieło jest przecież efektem swego rodzaju zaawansowanego przetworzenia innych prac, z którymi AI zapoznała się w jakimś stopniu na etapie nauki. Mogą być one zatem postrzegane, co potwierdzają pojawiające się w tym zakresie badania jako powtarzalne i pozbawione efektu oryginalności.

– mówi dr Dominika Kaczorowska-Spychalska

Jak zatem zmierzyć kreatywność i unikatowość publikacji, grafik czy obrazów powstałych w oparciu o ChatGPT czy inne narzędzia generatywnej sztucznej inteligencji? Na odpowiedź na to pytanie pewnie przyjdzie nam jeszcze poczekać. 

ChatGPT jako źródło bibliograficzne?

Nasuwa się także pytanie o to, czy korzystanie z ChatGPT jest dozwolone z punktu widzenia obowiązującego obecnie prawa. Oczywiście odpowiedź jest twierdząca  to po prostu kolejne narzędzie pomocne w wyszukiwaniu informacji i służące do pracy. Inną kwestią jest jednak wykorzystanie uzyskanych z ChatGPT informacji. 

Po pierwsze, należy pamiętać, że nie jest to narzędzie doskonałe i nierzadko przekazuje informacje zniekształcone lub fałszywe, czyli zarówno błędne, jak i nieistniejące. Dla przykładu przywołuje bardzo ciekawe wyroki sądowe, które jednak nigdy nie zostały wydane albo powołuje się na literaturę, która nie istnieje. Po drugie, niedozwolone jest kopiowanie treści wygenerowanych przez ChatGPT .

– wskazuje dr Karolina Sztobryn z Wydziału Prawa i Administracji UŁ

Na tym tle pojawia się więc pytanie, czy zatem ChatGPT można cytować jako źródło bibliograficzne. Sam ChatGPT na tę wątpliwość odpowiada pozytywnie i wskazuje nawet możliwe sposoby powołania go jako źródło treści, np.: „według ChatGPT - sztucznej inteligencji OpenAI…”, „odpowiedź wygenerowana przez program ChatGPT - sztuczną inteligencję OpenAI...”, czy „zgodnie z ChatGPT - programem komputerowym wykorzystującym sztuczną inteligencję...”. Należy być jednak bardzo ostrożnym ze stosowaniem takiego źródła, choćby ze względu na fakt, że może ono generować treści nieprawdziwe. Wobec tego, przekazując dalej informacje fałszywe, przyczyniamy się do ich rozpowszechniania

I chociaż ChatGPT udziela informacji na temat źródeł, z których korzystał przy tworzeniu generowanych treści, czasem odwołuje się do pozycji nieistniejących. Etyka prowadzenia badań i obserwacji nakazuje więc sięganie do źródła, nie zaś do kolejnego powołania. Kopiowanie treści może zatem prowadzić do naruszenia prawa autorskiego.

– podkreśla dr Karolina Sztobryn

Co z prawami autorskimi?

O ile sam ChatGPT, jako generatywna sztuczna inteligencja, nie posiada praw autorskich, to prawa te mogą przynależeć autorowi tekstu, z którego ChatGPT korzystał przy tworzeniu treści. Ponadto, przywłaszczanie sobie autorstwa utworu, albo wprowadzanie w błąd co do autorstwa zarówno całości, jak i nawet części utworu, stanowi naruszenie art. 115 ustawy o prawie autorskim i prawach pokrewnych i jest karane grzywną, karą ograniczenia wolności albo pozbawienia wolności do 3 lat. 

Kwestia praw autorskich i zakresu korzystania z treści wygenerowanych przez ChatGPT jest jednak jedną z wielu, jaka odnosi się do problematyki prawnej związanej z generatywną AI. W kontekście praw autorskich ciekawa jest też analiza możliwości naruszenia praw do treści, które stanowią tzw. dane wyjściowe dla sztucznej inteligencji. Postępowania sądowe w takich sprawach mają już miejsce w Stanach Zjednoczonych i Wielkiej Brytanii. W UE ten problem może być rozstrzygany na tle art. 3 i 4 dyrektywy 2019/790 w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym.

Także z perspektywy prawa unijnego, a konkretnie projektu rozporządzenia o sztucznej inteligencji (COM/2021/206 final) można analizować dalsze losy generatywnej AI, takiej jak ChatGPT. Akt ten będzie miał na celu zapewnienie działania sztucznej inteligencji w sposób bezpieczny, etyczny i zgodny z prawami podstawowymi. Nie można uznać, że zagrozi więc możliwości korzystania z generatywnej sztucznej inteligencji, jako takiej.

Potrzebne są zasady działania

Zdecydowanie postępująca demokratyzacja generatywnej sztucznej inteligencji w praktyce rynkowej i społecznej sprawia, że wizja swobodnej i merytorycznej współpracy z technologią, w różnych przestrzeniach ludzkiej aktywności, przestaje być poza naszym zasięgiem. Kiedy zatem ChatGPT wykona za nas naszą pracę? Wiele rzeczy już potrafi, ale to my powinniśmy zadecydować, do jakich celów jest on nam faktycznie potrzebny. Co więcej, pojawiające się doniesienia o kolejnych podobnych do niego rozwiązaniach, o których mówi Google czy Baidu, wymuszają konieczność wypracowania jednoznacznych zasad, które pozwolą na wykorzystanie tego typu narzędzi w sposób wiarygodny i etyczny, w tym z uwzględnieniem kwestii własności intelektualnej. 

dr Dominika Kaczorowska-Spychalska jest dyrektorem Centrum Inteligentnych Technologii na Wydziale Zarządzania UŁ. Pełni funkcję Lidera podgrupy Badań, Innowacyjności i Wdrożeń Grupy Roboczej ds. Sztucznej Inteligencji przy Komitecie Prezesa Rady Ministrów. Pasjonuje ją wpływ sztucznej inteligencji na zachowania człowieka oraz zakres i charakter interakcji między nim a technologią. Jest autorką (w części współautorką) licznych publikacji wydanych zarówno w wydawnictwach polskich, w tym czasopismach branżowych, jak i zagranicznych. Była w grupie specjalistów zaangażowanych w prace nad przygotowaniem „Założeń do strategii AI w Polsce”. Jest dwukrotną laureatką konkursu Centrum Inteligentnego Rozwoju – Naukowiec Przyszłości. Dąży do intensyfikacji współpracy między światem naukowo-badawczym a jego otoczeniem społeczno-gospodarczym na rynku krajowym i międzynarodowym, za co w tym roku otrzymała nagrodę Ministra Nauki i Edukacji.  

dr Karolina Sztobryn – doktor nauk prawnych, adiunkt w Katedrze Europejskiego Prawa Gospodarczego Wydziału Prawa i Administracji UŁ. Jest autorką i współautorką publikacji z zakresu prawa własności intelektualnej, prawa zwalczania nieuczciwej konkurencji oraz prawa reklamy. Prawem własności intelektualnej zajmuje się też w praktyce jako polski rzecznik patentowy i pełnomocnik przed Urzędem Unii Europejskiej do Spraw Własności Intelektualnej. Jest też certyfikowaną tutorką.

Materiał: Wydział Zarzadzania UŁ

Redakcja: Centrum Komunikacji i PR

 

Misją Uniwersytetu Łódzkiego jest rzetelne prowadzenie badań naukowych oraz aktywne głoszenie prawdy z nich płynącej, tak by mądrze kształcić kolejne pokolenia, być użytecznym dla społeczeństwa oraz odważnie odpowiadać na wyzwania współczesnego świata. Doskonałość naukowa jest dla nas zawsze najlepszym kompasem. Nasze wartości to: odwaga, ciekawość, zaangażowanie, współpraca i szacunek.