Bjern Ulveus iz grupe Aba, glumica Džulijen Mur i pevač Radioheada Tom Jork su među 10.500 potpisnika zajedničke izjave kreativnih industrija, kojom se upozoravaju kompanije koje razvijaju veštačku inteligenciju da neovlašćena upotreba njihovih dela predstavlja "veliku, nepravednu pretnju" za egzistenciju umetnika.
To dolazi usred pravne borbe između glumaca i muzičara s jedne strane i tehnnoloških firmi s druge, zbog koriščenja njihovog rada i dela kako bi se modeli veštačke inteligencije poput chatGPT obučavali na njima. Ujedno tvrde da je korišćenje njihove intelektualne svojine bez dozvole kršenje njihovih autorskih prava.
Nedozvoljena upotreba ne sme biti dozvoljena, stoji u izjavi.
Hiljade predstavnika kreativnih industrija - iz sveta knjige, muzike, filma, teatra i televizije - dali su podršku tom dokumentu, među kojima glumac Kevin Bejkon, pevač grupe Kjur (The Cure) Robert Smit, spisateljica Kejt Mos i drugi.
Pokretač akcije, britanski kompozitor i nekadašnji čelnik tehnološke kompanije Ed Njuton-Reks, izjavio je da su ljudi koji zarađuju za život kroz kreativni rad "veoma zabrinuti" zbog trenutne situacije, piše Gardijan.
"Tri su ključna izvora koje kompanije u AI poslu koriste za izgradnju svojih modela veštačke inteligencije: ljudstvo, računari i podaci. Troše ogromne količine novca na prva dva - nekad milione dolara na inženjere i milijarde dolara po modelu. Ali očekuju da treće dobiju besplatno", izjavio je.
On je ujedno nekadašnji šef u tehnološkoj kompaniji Stability AI, ali se povukao prošle godine zbog uverenja firme da uzimanje sadržaja zaštićenog autorskim pravima za obuku AI modela bez licence predstavlja "pošteno korišćenje", termin prema zakonu o autorskim pravima SAD koji znači da za dozvolu autorskih prava vlasnik nije potreban.
U Sjedinjenim Američkim Državama, Džon Grišam, Džodi Piko i Džordž R. R. Martin su među grupom autora koji tuže OpenAI, tvorca ChatGPT, zbog navodnog kršenja autorskih prava. Umetnici takođe tuže tehnološke firme koje stoje iza generatora slika, dok velike muzičke kuće, uključujući Sony Music, Universal Music Group i Warner Music Group, vode pravne sporove protiv kreatora AI muzike, kao što su Suno i Udio.
Njuton-Reks je takođe upozorio da bi predlog "opt-out" opcije za prikupljanje sadržaja, koji razmatra britanska vlada, mogao biti veoma štetan. Ovaj mesec je Financial Times izvestio da će ministri konsultovati javnost o programu koji bi omogućio AI kompanijama da prikupljaju sadržaj od umetnika i izdavača, osim ako oni ne odluče da se "isključe" iz tog procesa.
Prošlog meseca, Gugl (Google) kao jedan od ključnih aktera u oblasti veštačke inteligencije, pozvao je na ublažavanje ograničenja u Velikoj Britaniji na praksu poznatu kao rudarenje teksta i podataka (TDM), pri kojoj je kopiranje zaštićenih autorskih dela dozvoljeno u nekomercijalne svrhe, poput akademskog istraživanja.
Njuton-Reks je izjavio da je opcija "opt-out" problematična, jer većina ljudi nije svesna postojanja takvih programa.
"Vodio sam opt-out programe za AI kompanije. Čak i najefikasniji opt-out programi budu propušteni od strane većine ljudi koji imaju priliku da se isključe. Nikada ne čujete za to, propustite imejl", rekao je Njuton-Reks.
"Potpuno je nepravedno prebaciti teret isključivanja iz AI obuke na kreatora čije se delo koristi. Ako vlada zaista misli da je ovo dobro za kreatore, trebalo bi da uvede opt-in sistem."
Njuton-Reks je istakao da broj potpisnika izjave, kao i širok spektar kreativnih talenata koje predstavljaju, jasno pokazuje da bi kreatori smatrali "potpuno nepravednim" uvođenje opt-out šeme.
Izjavu su potpisale i organizacije i kompanije iz kreativne industrije, uključujući Američku federaciju muzičara, američki sindikat glumaca SAG-AFTRA, Evropski savet pisaca i Universal Music Group.
Portparol britanske vlade izjavio je da su održani sastanci sa AI firmama i kreativnim industrijama povodom pitanja autorskih prava, dodajući da je ovo oblast koja "zahteva promišljen angažman" i da su posvećeni tome da čuju širok spektar mišljenja kako bi oblikovali svoj pristup.
Glas javnosti/T02S