Cum răspund întreprinderile la creșterea conținutului AI
Din cauza acestor probleme, marile companii de tehnologie lucrează la modalități de îmbunătățire a autenticității și provenienței media. În cadrul conferinței anuale Build, Microsoft a anunțat că instrumentele sale Bing Image Creator și Designer vor avea acum noi funcții de proveniență a conținutului media.
Utilizatorii vor putea verifica dacă imaginile sau clipurile video au fost realizate de AI folosind metode criptografice care includ informații despre proveniența conținutului.
Dar pentru ca acest sistem să funcționeze, diferite platforme trebuie să fie de acord cu specificația Coalition for Content Provenance and Authenticity(C2PA).
De asemenea, Meta a lansat un instrument numit Meta Video Seal care poate adăuga filigrane invizibile clipurilor video realizate de inteligența artificială. Acest instrument open-source este destinat să funcționeze fără probleme cu software-ul existent, facilitând găsirea conținutului realizat de inteligența artificială. Video Seal promite să fie rezistent la editările obișnuite, cum ar fi estomparea și decuparea, spre deosebire de tehnologiile mai vechi de filigranare care aveau probleme cu compresia și manipularea video.
Probleme și limitări
Chiar și cu aceste îmbunătățiri, există încă probleme în a convinge o mulțime de oameni să utilizeze aceste tehnologii. Mulți dezvoltatori pot ezita să treacă de la soluțiile brevetate existente la opțiuni open-source precum Video Seal.
Meta intenționează să organizeze ateliere de lucru în cadrul conferințelor majore privind inteligența artificială și să realizeze un clasament public care să compare diferite metode de filigranare pentru a determina mai mulți oameni să colaboreze.
De asemenea, metodele de filigranare pe care le avem acum nu sunt întotdeauna suficient de puternice sau de eficiente atunci când vine vorba de conținut video.
Două abordări principale ale combaterii conținutului generat de inteligența artificială
În lupta împotriva conținutului generat de AI, au apărut două strategii distincte:
- Watermarking (abordare preventivă):
- Funcționează prin adăugarea de semnături invizibile la conținut în momentul creării
- Acționează ca un certificat digital care arată „acest lucru a fost făcut de AI”
- Instrumente precum Meta Video Seal și caracteristicile de proveniență ale Microsoft reprezintă această abordare
- Principalul avantaj este identificarea imediată a conținutului AI
- Instrumente de detectare (abordare analitică):
- Analizează conținutul existent pentru a determina dacă acesta a fost generat de AI
- Caută tipare și caracteristici tipice ale conținutului creat de AI
- Util în special pentru conținutul care nu a fost marcat la creare
- Aceste instrumente formează a doua linie de apărare
Ambele abordări sunt necesare deoarece se completează reciproc: filigranarea previne utilizarea abuzivă, în timp ce instrumentele de detectare ajută la identificarea conținutului nemarcat.
Instrumente și tehnologii de detectare
Conținutul generat de inteligența artificială poate fi găsit în mai multe moduri decât doar prin tehnologii de filigranare. Noile instrumente de detectare utilizează algoritmi complecși pentru a analiza atât conținutul textului, cât și cel al imaginii.
- Originalitatea, algoritmii de învățare profundă sunt utilizați de AI pentru a găsi modele în textul care a fost generat de AI.
- GPTZero analizează structurile lingvistice și frecvența cuvintelor pentru a face diferența între conținutul care a fost scris de oameni și conținutul care a fost creat de mașini.
- CopyLeaks utilizează N-grame și comparații de sintaxă pentru a găsi mici modificări ale limbajului care ar putea fi semne ale paternității AI.
Aceste instrumente ar trebui să ofere utilizatorilor opinii precise cu privire la cât de real este conținutul, dar cât de bine funcționează acestea poate varia foarte mult.
În concluzie
Pe măsură ce inteligența artificială generativă avansează, protejarea autenticității digitale devine din ce în ce mai crucială. Microsoft și Meta conduc cu standarde inovatoare pentru autenticitatea conținutului și verificarea provenienței media.
Pentru a combate eficient deepfakes, avem nevoie atât de adoptarea acestor instrumente la nivelul întregii industrii, cât și de o colaborare mai strânsă între companiile de tehnologie. Viitoarea integritate a conținutului digital depinde de faptul că tehnologiile de detectare vor evolua mai rapid decât înșelăciunea generată de inteligența artificială.
De fapt, am acoperit recent modul în care YouTube ia măsuri similare prin introducerea de noi instrumente de detectare a AI pentru creatori și mărci. Abordarea lor include tehnologii de identificare sintetică a vocii și de detectare a fețelor generate de AI, demonstrând în continuare modul în care platformele majore lucrează pentru a proteja autenticitatea conținutului în era AI.