Šajā ceļvedī ir aplūkotas galvenās ētiskās, juridiskās un ar privātumu saistītās problēmas, kas saistītas ar mākslīgā intelekta (AI) slavenību VoiceOver ģeneratoru izmantošanu. Tas arī parāda, kā jūs varat izdarīt atbildīgākas izvēles satura veidošanas procesā.
Kas ir slavenību balss ģeneratori un kā tie darbojas?
Ar AIdarbināmi slavenību balss ģeneratori paļaujas uz modernu tehnoloģiju sajaukumu. Tie ietver neironu tīklus un dziļu mācīšanos, lai izpētītu slavenību balsis un izmantotu šos datus, lai apmācītu savus modeļus. Viņi analizē tūkstošiem stundu slavenību balsis, lai atjaunotu savus balss modeļus, ļaujot satura veidotājiem tos izmantot savā saturā.
Kā TTS ar slavenību balsīm ģenerē reālistisku audio
Laika gaitā nepārtraukti trenējoties, balss ģeneratori iemācās identificēt unikālās nianses, kas padara slavenību balsis unikālas. Tātad viņi var tos atkārtot ar lielāku precizitāti. Pēc tam satura veidotāji var izmantot šīs AI balsis , lai izveidotu balss pārraidi audiovizuālajam saturam dažādos medijos.
Tas tiek darīts, pārvēršot tekstu par audio, izmantojot uzlabotu teksta-runas sintēzi. AI- ar teksta pārveidotāju skaņā (TPS) balss rīki ievada tekstu un pārvērš tos izrunātos vārdos jūsu izvēlētajā slavenībā AI balsī. Pieņemsim, ka vēlaties savam kanālam izveidot YouTube videoklipu, kurā filmas un TV pārraides tiek apkopotas galvenā aktiera, piemēram, Nikolas Kidmenas, balsī. AI rīks varēs pārvērst jūsu tekstuālās ievades HER reālistiskā slavenību AI balsī.
Kāpēc slavenību balss ģeneratori ir pretrunīgi
AI ir izveidojis balss ģeneratorus, kas var pārliecinoši atkārtot slavenību balsis. Tas ir radījis būtiskas ar juridisko privātumu saistītas bažas. Tā kā tehnoloģija apsteidz tiesību aktus, šo rīku ļaunprātīgas izmantošanas iespēja kļūst arvien acīmredzamāka.
Autortiesību un piekrišanas problēmas ar AI-Created Celebrity Voices
Slavenību teksta pārveidotāja skaņā (TPS) izmantošana AIveidotā saturā bez piekrišanas rada bažas par autortiesību pārkāpumiem un tiesībām uz publicitāti. Nesenā tiesas prāva pret plaši pazīstamu AI balss ģeneratoru izceļ šīs problēmas. Tajā aktieri apgalvoja, ka viņu balsis tika izmantotas bez viņu piekrišanas, pārkāpjot viņu tiesības uz privātumu.
Tiesības uz publicitāti ir arī būtisks juridisks aspekts, kas aizsargā cilvēkus no viņu tēla, līdzības vai balss neatļautas izmantošanas bez atļaujas. Tas ietver pārkāpumu, izmantojot AI.
Bieži vien nav nepieciešams pierādīt, ka AIradītais saturs ir nepatiess vai maldinošs, lai konstatētu tiesību uz publicitāti pārkāpumu. Izšķirošais faktors ir tas, vai saturs ir viegli identificējams kā persona, par kuru uzdodas.
AIģenerētas slavenību balsis var izmantot, lai radītu dziļviltojumus, kas ir ļoti reālistisks, bet safabricēts mediju saturs. Šie dziļviltojumi var izplatīt maldinošu informāciju un radīt smagas sekas privātpersonām, uzņēmumiem un pat valdībām.
Kādi ir reālistisku slavenību balsu riski
Iekšzemes drošības departaments norāda , ka dziļviltojumi ietilpst sintētisko mediju paspārnē. Tie izmanto AI un mašīnmācīšanos, lai izveidotu videoklipus, audio vai pat notikumus, kas šķiet reāli, bet nenotika. Tehnoloģiju izmantošana šādā veidā rada būtiskus draudus. Tomēr lielāks drauds rodas no tieksmes ticēt tam, ko redz.
Tāpēc ir ļoti svarīgi, lai satura veidotāji pieņemtu atbildīgu un ētisku pieeju slavenību AI balss ģeneratoru izmantošanai.
Kā Deepfake audio var apbruņot ar ieročiem
Vienmēr pastāv risks, ka šīs balsis un rīkus var izmantot, lai izplatītu maldinošu informāciju vai pat krāptu cilvēkus. Tas ir tāpēc, ka rīki, kas var atkārtot slavenību balsis, ir plaši pieejami. Arī kibernoziedzības līmenis ir sasniedzis visu laiku augstāko līmeni. Satura veidotājiem ir jāizdara atbildīga izvēle, veidojot saturu savos mārketinga kanālos.
Kad jūs izmantojat viņu balsis nepareizu iemeslu dēļ, cilvēka tendence ticēt tam, ko viņi redz vai dzird, var arī kaitēt slavenību reputācijai. Šādos gadījumos cietušais vienmēr var iesūdzēt tiesā. Tomēr nodarītais kaitējums bieži vien var ietekmēt viņu uzticamību un sabiedrības uztveri.
Vai ir drošākas alternatīvas slavenību balss ģeneratoriem
Ir daudz Speaktor alternatīvu, kas izmanto slavenību balsis. Tomēr ir daudz drošāku rīku, kas izmanto reālistiskas balsis, kas nepārkāpj neviena privātumu vai autortiesības. Teksta-runas tehnoloģija, kas piedāvā dzīvas balsis, neuzdodoties par slavenībām, ir lieliska vieta, kur sākt.
Satura veidotājiem ir jāizmanto šie rīki, un viņi nedrīkst paļauties uz audio saturu, kas pārkāpj viņu tiesības uz publicitāti vai kaitē viņiem un viņu reputācijai.
Piemēram, Speaktor piedāvā reālistisku un reālistisku balss izvadi, ko varat izmantot savā saturā, nepārkāpjot autortiesības un privātumu. Viss, kas jums jādara, ir ievadīt tekstu, kas precīzi pārveidos rakstīto tekstu profesionālās kvalitātes izrunātos vārdos dažādās balsīs. Varat tos izmantot visos savos mārketinga kanālos un satura vajadzībām.
Kā noteikumi var attiekties uz slavenību balss ģeneratoru izmantošanu
Tiesību sistēma lēnām tuvojas potenciālajiem riskiem, kas saistīti ar slavenību balss mainītājiem un AI dažādās nozarēs un lietošanas gadījumos. Ņemot vērā kaitējumu, ko tas potenciāli var nodarīt personas reputācijai un privātumam, likumdevēji iestājas par balss klonēšanu.
Nesen Tenesī gubernators Bils Lī ierosināja Līdzības, balss un attēla drošības nodrošināšanas likumu . Šī likumprojekta mērķis ir aizsargāt māksliniekus no nelikumīgas viņu balsu klonēšanas bez piekrišanas. Ar šo soli Tenesī cenšas kļūt par pirmo ASV štatu, kas risina bažas par balss dziļajiem viltojumiem, kas izveidoti, izmantojot AI.
Papildus šiem Tenesī likuma sasniegumiem ASV autortiesību likumiem ir arī taisnīga daļa ierobežojumu. Tie aizsargā "meistaru" vai digitālo audio failu, uz kura tiek fiksēts mākslinieka sniegums. Tomēr tie neaizsargā paša mākslinieka vai izpildītāja balsi.
Pētījumā, ko 2023. gadā uzsāka ASV Autortiesību birojs , tika secināts, ka mūsdienu autortiesību likumiem ir jāprecizē AIdarbināto balss klonēšanas tehnoloģiju likumība.
Tenesī štatā ieviestais likumprojekts varētu radīt precedentu vairākām valstīm, lai izpētītu riskus, kas saistīti ar AIbāzētiem balss klonēšanas rīkiem. Viņi varētu arī izpētīt to nopietno ietekmi uz autortiesībām, privātumu un tiesībām uz publicitāti.
Valstīm visā pasaulē ir jāreaģē uz pieaugošajām problēmām, kas saistītas ar AIdarbinātiem balss klonēšanas rīkiem un to iespējamu ļaunprātīgu izmantošanu. Viņiem ir jāturpina regulēt šo rīku izmantošanu satura veidotāju un izstrādātāju vidū. Tas nodrošinās, ka viņu darbs nepārkāpj citas personas autortiesības, privātumu vai tiesības uz publicitāti.
Secinājums
Personalizēti slavenību balss ģeneratori un citi balss klonēšanas rīki ir bijuši uzmanības centrā. Gan aktieru, gan mākslinieku tiesas prāvas ir novirzījušas uzmanību uz šo rīku iespējamu ļaunprātīgu izmantošanu un iespējamo kaitējumu, ko tie var nodarīt cilvēka reputācijai. Viņi ir arī atklājuši savu lomu maldinošas informācijas izplatīšanā digitālajā vidē ap mums šodien.
Ļaunprātīgi izmantojot AI , lai atdarinātu slavenību balsis, var pārkāpt konfidencialitātes likumus un ir ļoti neētiski. Tādi rīki kā Speaktor izceļas, jo tie piedāvā reālistiskas un reālistiskas balsis, kuras satura veidotāji var izmantot, nepārkāpjot esošās autortiesības vai personas privātumu. Speaktor ražo augstas kvalitātes, profesionāla līmeņa balss pārraides visu veidu saturam, padarot to par vienu no labākajām biznesā.