Kto się zorientował?
Czytaj też: Świrski wszczyna postępowanie, a do KRRiT wpływają skargi na „Kropkę nad i” z udziałem prof. Engelking
Jego koledzy redaktorzy, przez których ręce tekst przeszedł, stwierdzili, że całość była zachowawcza i napisana w stylu studenta I roku dziennikarstwa. Tekst był jednak poprawny i jako taki przeszedł pozytywnie redaktorską weryfikację.
– Wykorzystuję AI do różnych celów, ale korzystam z komercyjnej wersji, która nie ma skłonności do konfabulacji – mówi poznański dziennikarz Krzysztof M. Kaźmierczak, członek rady programowej PAP. – Przyznam, że jestem pod wielkim wrażeniem wersji GPT-4, czyli komercyjnej. Sprawdza się w wielu zastosowaniach, także dziennikarskich. Jest świetna do opracowań, porównań, tłumaczeń, z którymi radzi sobie lepiej niż translator Google, korekty błędów.
Kilka dni temu Kaźmierczak spytał ChatGPT-4 o zestawienie 10 najlepszych filmów sf. – Gdybym o to samo spytał Google, dostałbym linki do istniejących i dość sztampowych rankingów. AI poradziła sobie świetnie, porównując wszystkie istniejące bazy filmowe – podkreśla.
Dodaje też, że AI dobrze sprawdza się przy przeszukiwaniu archiwaliów, z którymi on sam pracuje. – Uważam, że niebawem będzie to narzędzie, z którego wszyscy będziemy korzystać, narzędzie wspomagające m.in. research.
Problem ze sztuczną inteligencją w dziennikarstwie
Kaźmierczak dodaje, że obecnie pracuje nad wykorzystaniem AI w serwisie poświęconym sprawie zabójstwa poznańskiego dziennikarza Jarosława Ziętary.
Czytaj też:W orld Press Photo 2023. Wybrano wstrząsające zdjęcie roku
O własnych doświadczeniach z AI opowiada też Jarosław Rybak, pisarz i dziennikarz zajmujący się tematyką militarną, któremu ChatGPT wygenerował biogram zupełnie niezgodny z rzeczywistością. – Ta powszechnie dostępna, bezpłatna wersja na razie nie nadaje się do zbierania czy weryfikacji danych. Wpisałem kilka nazwisk znajomych z dorobkiem naukowym i licznymi publikacjami. To powinno ułatwić AI zbieranie informacji. W każdym wypadku błędy były poważne. W skrajnym – osobie o niepowtarzalnym, dwuczłonowym nazwisku całkowicie zmieniono obszar zainteresowań (z archeologii na chemię), dorobek, tytuł naukowy i miejsce pracy.
Paweł Nowacki, niezależny ekspert rynku mediów, uważa, że problemu ze sztuczną inteligencją w dziennikarstwie nie ma, dopóki nie dojdzie się do kwestii praw autorskich i odpowiedzialności za opublikowane treści.
Kaźmierczak: – Jeżeli „Wyborcza” opublikowała na swoich stronach tekst stworzony przez AI, to wiadomo – AI za tekst pozwać nie można. Natomiast za samą publikację, zgodnie z prawem prasowym, odpowiada redaktor naczelny i wydawcy, więc jest kogo pozywać. Nie da się zasłonić tym, że tekst stworzyła sztuczna inteligencja.
Za treści odpowiadają dziennikarz i redakcja
Mecenas Michał Kibil z kancelarii DGTL, specjalizujący się w prawnych kwestiach zastosowania sztucznej inteligencji, rozwija temat.
Czytaj też: Kolejna runda zwolnień w Meta. Pracownicy do Zuckerberga: „Zniszczyłeś morale”
– Dopóki pod maszynowo wyprodukowanym tekstem podpisuje się dziennikarz, to on ponosi odpowiedzialność za efekt pracy. Możemy to porównać z dowolnym narzędziem, które pozwoli nam na wygenerowanie czegoś niezgodnego z prawem – mówi Kibil, podając przykład pistoletu wydrukowanego na drukarce 3D, którego można użyć jak regularnej broni.
– To nie ściąga z nas odpowiedzialności. Każdy mógłby się tłumaczyć, że nie jest producentem broni, a samą broń wydrukowała drukarka. Tak samo jest z tekstem wygenerowanym przez AI. Jeżeli taki tekst naruszałby czyjeś prawa autorskie, był nierzetelny w rozumieniu prawa prasowego, to za treść będą odpowiadali dziennikarz i redakcja, która go opublikuje.
Michał Kibil przypomina, że w polskich przepisach przyjmuje się, że utwór może być wytworzony tylko przez człowieka.
Czytaj też: Zespół „NIE” pisze do zachodnich redakcji o notorycznym łamaniu wolności słowa w Polsce
(PAR, 22.04.2023)
Źródło: Press.pl