Ко боље открива Деепфакес: човек или машина?

Кључне Такеаваис

  • Дубоки фајкови представљају значајну претњу друштву, укључујући ширење дезинформација, нарушавање репутације лажним представљањем и подстицање сукоба за националну безбедност.
  • Иако АИ технологија нуди алате за откривање дубоких лажњака, они нису савршени, а људска дискреција остаје кључна у идентификацији деепфаке-а.
  • Људи и алати за откривање вештачке интелигенције имају различите предности и слабости у идентификацији деепфаке-а, а комбиновање њихових способности може побољшати стопе успеха у откривању и ублажавању опасности од деепфаке технологије.

Деепфакес прете сваком аспекту друштва. Наша способност да идентификујемо лажни садржај је кључна за поништавање дезинформација, али како се технологија вештачке интелигенције побољшава, коме можемо веровати да открије дубоке лажне ствари: човеку или машини?

Опасности од Деепфакеса

Како технологија вештачке интелигенције напредује, опасности од деепфакеса представљају све већу претњу за све нас. Ево кратког резимеа неких од најхитнијих проблема које постављају деепфакес:

  • Дезинформације: Дубоко лажни видео снимци и гласовни снимци могу ширити дезинформације, као што су лажне вести.
  • Лажно представљање: лажним представљањем појединаца, деепфакес могу наштетити репутацији људи или преварити било кога ко их познаје.
  • Национална безбедност: Очигледни сценарио судњег дана са дубоким лажњацима је измишљен снимак или аудио снимак глобалног лидера који подстиче сукоб.
  • Грађански немири: Странке такође могу користити лажне снимке и аудио записе за изазивање беса и грађанских немира међу одређеним групама.
  • Сајбер безбедност: Сајбер криминалци већ користе алатке за клонирање гласа помоћу вештачке интелигенције да циљају појединце са убедљивим порукама људи које познају.
  • Приватност и сагласност: Злонамерна употреба деепфакес-а личи на појединце без њиховог пристанка.
  • Поверење и самопоуздање: Ако не можете да разликујете истину од обмане, тачне информације постају подједнако неповерљиве.

Деепфакес ће постати само убедљивији, тако да су нам потребни робусни алати и процеси за њихово откривање. АИ пружа један такав алат у облику модела детекције дубоког лажирања. Међутим, као и алгоритми дизајнирани да идентификују писање генерисано вештачком интелигенцијом, алати за откривање дубоког лажирања нису савршени.

У овом тренутку, људска дискреција је једино друго средство на које се можемо ослонити. Дакле, да ли смо бољи од алгоритама у идентификацији деепфакеса?

  Креирајте базу података чврстог диска и брзо претражујте датотеке

Могу ли алгоритми боље открити дубоке фајке од људи?

Деепфакес су довољно озбиљна претња да технолошки гиганти и истраживачке групе посвећују огромне ресурсе истраживању и развоју. У 2019. години, компаније попут Мета, Мицрософта и Амазона понудиле су награде од 1.000.000 долара током Деепфаке Детецтион Цхалленге за најпрецизнији модел детекције.

Модел са најбољим учинком био је 82,56% тачан у односу на скуп података јавно доступних видео снимака. Међутим, када су исти модели тестирани на „скупу података из црне кутије“ од 10.000 невидљивих видео записа, модел са најбољим учинком био је тачан само 65,18%.

Такође имамо много студија које анализирају перформансе алата за откривање АИ деепфаке против људских бића. Наравно, резултати варирају од једне студије до друге, али генерално, људи су или једнаки или надмашују стопу успешности алата за откривање дубоких лажирања.

Једна студија објављена 2021 ПНАС открили да су „обични људски посматрачи“ постигли нешто већу стопу тачности од водећих алата за откривање дубоких лажирања. Међутим, студија је такође открила да су људски учесници и модели вештачке интелигенције били подложни различитим врстама грешака.

Занимљиво, истраживање које је спровео Универзитет у Сиднеју открио је да је људски мозак, несвесно, ефикаснији у откривању дубоких лажирања од наших свесних напора.

Откривање визуелних трагова у Деепфакес

Наука о детекцији деепфаке-а је сложена, а потребна анализа варира у зависности од природе снимка. На пример, злогласни дубоки лажни видео севернокорејског лидера Ким Џонг-уна из 2020. је у суштини видео који говори о глави. У овом случају, најефикаснији метод детекције дубоког лажирања може бити анализа висема (покрети уста) и фонема (фонетски звукови) на недоследности.

Људски стручњаци, повремени посматрачи и алгоритми могу да изврше ову врсту анализе, чак и ако се резултати разликују. Тхе МИТ дефинише осам питања која помажу у идентификацији дубоких лажних видео снимака:

  • Обратите пажњу на лице. Врхунске ДеепФаке манипулације су скоро увек трансформације лица.
  • Обратите пажњу на образе и чело. Да ли се кожа чини превише глатка или превише наборана? Да ли је старост коже слична старости косе и очију? ДеепФакес могу бити неконгруентни у неким димензијама.
  • Обратите пажњу на очи и обрве. Да ли се сенке појављују на местима која бисте очекивали? ДеепФакес можда неће у потпуности представити природну физику сцене.
  • Обратите пажњу на наочаре. Има ли одсјаја? Има ли превише одсјаја? Да ли се угао одсјаја мења када се особа креће? Још једном, ДеепФакес можда неће у потпуности представити природну физику осветљења.
  • Обратите пажњу на длаке на лицу или њихов недостатак. Да ли ова длака на лицу изгледа стварно? ДеепФакес може додати или уклонити бркове, залиске или браду. Међутим, ДеепФакес можда неће успети да учини трансформацију длачица на лицу потпуно природном.
  • Обратите пажњу на младеже на лицу. Да ли кртица изгледа стварно?
  • Обратите пажњу на трептање. Да ли особа трепери довољно или превише?
  • Обратите пажњу на покрете усана. Неки деепфакес су засновани на синхронизацији усана. Да ли покрети усана изгледају природно?
  Сећате се МиниДисц-а? Ево како га и даље можете користити у 2020

Најновији АИ алати за откривање дубоког лажирања могу анализирати исте факторе, опет, са различитим степеном успеха. Научници за податке стално развијају и нове методе, као што је откривање природног протока крви у лицима звучника на екрану. Нови приступи и побољшања постојећих могли би да доведу до тога да алати за откривање дубоког лажирања вештачке интелигенције доследно надмашују људе у будућности.

Откривање аудио трагова у Деепфакес

Откривање дубоко лажног звука је сасвим другачији изазов. Без визуелних назнака видеа и могућности да се идентификују аудиовизуелне недоследности, откривање дубоког лажирања се у великој мери ослања на аудио анализу (у неким случајевима могу помоћи и друге методе као што је верификација метаподатака).

Студија коју је објавио Универзитетски колеџ у Лондону 2023. откривено је да људи могу да открију лажни говор у 73% времена (енглески и мандарински). Као и код деепфаке видео записа, људски слушаоци често интуитивно откривају неприродне говорне обрасце у говору генерисаном вештачком интелигенцијом, чак и ако не могу да наведу шта изгледа погрешно.

Уобичајени знаци укључују:

  • Мучно
  • Недостатак изражавања
  • Позадински или интерферентни шум
  • Вокалне или говорне недоследности
  • Недостатак „пуноће“ у гласовима
  • Испорука са превише скриптама
  • Недостатак несавршености (лажни стартови, корекције, чишћење грла, итд.)

Још једном, алгоритми такође могу анализирати говор за исте дубоке лажне сигнале, али нове методе чине алате ефикаснијим. Истраживање од УСЕНИКС идентификоване обрасце у реконструкцији вокалног тракта АИ који не успевају да опонашају природни говор. Он резимира да АИ генератори гласа производе звук који одговара уским вокалним трактама (отприлике величине сламке) без природних покрета људског говора.

  Погледајте Уобичајено радно време када планирате састанке у различитим временским зонама

Ранија истраживања из Институт Хорст Гортз анализирао оригиналан и дубоко лажни звук на енглеском и јапанском, откривајући суптилне разлике у вишим фреквенцијама правог говора и дубоког лажирања.

И гласовни тракт и високофреквентне недоследности су уочљиве људским слушаоцима и моделима детекције АИ. У случају разлика у високој фреквенцији, АИ модели би, теоретски, могли да постану све тачнији – иако се исто може рећи и за АИ деепфакес.

И људе и алгоритме Деепфакес преваре, али на различите начине

Студије сугеришу да су људи и најновији алати за откривање вештачке интелигенције на сличан начин способни да идентификују деепфаке. Стопе успешности могу варирати између 50% и 90+%, у зависности од параметара теста.

У ширем смислу, људи и машине су такође преварени дубоким лажњацима у сличној мери. Најважније је, међутим, да смо подложни на различите начине, а ово би могло бити наш највећи адут у суочавању са опасностима технологије деепфаке. Комбиновањем предности људи и алата за откривање дубоког лажирања ублажиће се слабости сваког од њих и побољшати стопе успеха.

На пример, МИТ истраживање је показало да су људи били бољи у идентификацији лажних светских лидера и познатих људи од АИ модела. Такође је открило да су се модели вештачке интелигенције борили са снимцима са више људи, иако сугерише да би то могло бити резултат обучавања алгоритама на снимцима са једним звучницима.

Супротно томе, иста студија је открила да су модели вештачке интелигенције надмашили људе са снимцима лошег квалитета (мутни, зрнасти, тамни, итд.) који би могли да се намерно користе да обману људске гледаоце. Исто тако, недавне методе детекције вештачке интелигенције, као што је праћење протока крви у одређеним деловима лица, укључују анализу за коју људи нису способни.

Како се више метода буде развијало, способност вештачке интелигенције да открије знакове које не можемо само ће се побољшати, већ ће се побољшати и њена способност да обмањује. Велико је питање да ли ће технологија за детекцију деепфаке-а наставити да надмашује саме деепфаке.

Гледање ствари другачије у доба дубоких лажњака

Алати за откривање АИ деепфаке ће наставити да се побољшавају, као и квалитет самог деепфаке садржаја. Ако способност вештачке интелигенције да обмане надмашује њену способност откривања (као што је случај са текстом генерисаним вештачком интелигенцијом), људска дискреција може бити једино средство које нам је преостало за борбу против дубоких лажирања.

Свако има одговорност да научи знакове деепфакеса и како их уочити. Осим што се штитимо од превара и безбедносних претњи, све о чему разговарамо и делимо на мрежи подложно је дезинформацијама ако изгубимо разумевање стварности.