SZTUCZNA INTELIGENCJA WYGENEROWAŁA ARTYKUŁ DLA WYBORCZEJ.BIZ

Kto się zorientował?

Czytaj też: Świrski wszczyna postępowanie, a do KRRiT wpływają skargi na „Kropkę nad i” z udziałem prof. Engelking

Jego koledzy redaktorzy, przez których ręce tekst przeszedł, stwierdzili, że całość była zachowawcza i napisana w stylu studenta I roku dziennikarstwa. Tekst był jednak poprawny i jako taki przeszedł pozytywnie redaktorską weryfikację.

– Wykorzystuję AI do różnych celów, ale korzystam z komercyjnej wersji, która nie ma skłonności do konfabulacji – mówi poznański dziennikarz Krzysztof M. Kaźmierczak, członek rady programowej PAP. – Przyznam, że jestem pod wielkim wrażeniem wersji GPT-4, czyli komercyjnej. Sprawdza się w wielu zastosowaniach, także dziennikarskich. Jest świetna do opracowań, porównań, tłumaczeń, z którymi radzi sobie lepiej niż translator Google, korekty błędów.

Kilka dni temu Kaźmierczak spytał ChatGPT-4 o zestawienie 10 najlepszych filmów sf. – Gdybym o to samo spytał Google, dostałbym linki do istniejących i dość sztampowych rankingów. AI poradziła sobie świetnie, porównując wszystkie istniejące bazy filmowe – podkreśla.

Dodaje też, że AI dobrze sprawdza się przy przeszukiwaniu archiwaliów, z którymi on sam pracuje. – Uważam, że niebawem będzie to narzędzie, z którego wszyscy będziemy korzystać, narzędzie wspomagające m.in. research.

Problem ze sztuczną inteligencją w dziennikarstwie

Kaźmierczak dodaje, że obecnie pracuje nad wykorzystaniem AI w serwisie poświęconym sprawie zabójstwa poznańskiego dziennikarza Jarosława Ziętary.

Czytaj też:W orld Press Photo 2023. Wybrano wstrząsające zdjęcie roku

O własnych doświadczeniach z AI opowiada też Jarosław Rybak, pisarz i dziennikarz zajmujący się tematyką militarną, któremu ChatGPT wygenerował biogram zupełnie niezgodny z rzeczywistością. – Ta powszechnie dostępna, bezpłatna wersja na razie nie nadaje się do zbierania czy weryfikacji danych. Wpisałem kilka nazwisk znajomych z dorobkiem naukowym i licznymi publikacjami. To powinno ułatwić AI zbieranie informacji. W każdym wypadku błędy były poważne. W skrajnym – osobie o niepowtarzalnym, dwuczłonowym nazwisku całkowicie zmieniono obszar zainteresowań (z archeologii na chemię), dorobek, tytuł naukowy i miejsce pracy.

Paweł Nowacki, niezależny ekspert rynku mediów, uważa, że problemu ze sztuczną inteligencją w dziennikarstwie nie ma, dopóki nie dojdzie się do kwestii praw autorskich i odpowiedzialności za opublikowane treści. 

Kaźmierczak: – Jeżeli „Wyborcza” opublikowała na swoich stronach tekst stworzony przez AI, to wiadomo – AI za tekst pozwać nie można. Natomiast za samą publikację, zgodnie z prawem prasowym, odpowiada redaktor naczelny i wydawcy, więc jest kogo pozywać. Nie da się zasłonić tym, że tekst stworzyła sztuczna inteligencja.

Za treści odpowiadają dziennikarz i redakcja

Mecenas Michał Kibil z kancelarii DGTL, specjalizujący się w prawnych kwestiach zastosowania sztucznej inteligencji, rozwija temat.

Czytaj też: Kolejna runda zwolnień w Meta. Pracownicy do Zuckerberga: „Zniszczyłeś morale”

– Dopóki pod maszynowo wyprodukowanym tekstem podpisuje się dziennikarz, to on ponosi odpowiedzialność za efekt pracy. Możemy to porównać z dowolnym narzędziem, które pozwoli nam na wygenerowanie czegoś niezgodnego z prawem – mówi Kibil, podając przykład pistoletu wydrukowanego na drukarce 3D, którego można użyć jak regularnej broni.

– To nie ściąga z nas odpowiedzialności. Każdy mógłby się tłumaczyć, że nie jest producentem broni, a samą broń wydrukowała drukarka. Tak samo jest z tekstem wygenerowanym przez AI. Jeżeli taki tekst naruszałby czyjeś prawa autorskie, był nierzetelny w rozumieniu prawa prasowego, to za treść będą odpowiadali dziennikarz i redakcja, która go opublikuje.

Michał Kibil przypomina, że w polskich przepisach przyjmuje się, że utwór może być wytworzony tylko przez człowieka.

Czytaj też: Zespół „NIE” pisze do zachodnich redakcji o notorycznym łamaniu wolności słowa w Polsce

(PAR, 22.04.2023)
Źródło: Press.pl

(www.press.pl)