Шта је АИ халуцинација и да ли се може поправити?

Колико често се ослањате на ботове за ћаскање или ботове засноване на вештачкој интелигенцији (АИ) да бисте обавили посао или одговорили на ваша питања?

Ако је ваш одговор ‘много!’ или ‘све време!’, имате разлога за бригу😟.

Било да сте студент истраживач који религиозно користи АИ ботове да истражује вашу папирологију или програмер који покушава да генерише кодове само користећи АИ, шансе за нетачност у оквиру излаза генерисаних АИ су прилично велике — првенствено због недоследности или заблудних података у АИ подаци о обуци.

Иако модели вештачке интелигенције и машинског учења (МЛ) трансформишу свет—преузимајући сувишне задатке и решавајући многе проблеме помоћу аутоматизације, још увек има посла када је у питању генерисање тачних излазних података на основу пружених упутстава.

Ако проведете довољно времена користећи генераторе садржаја и цхатботове, неће проћи много времена пре него што схватите да добијате лажне, небитне или једноставно измишљене одговоре. Ови случајеви се називају халуцинацијама или конфабулацијама АИ и показују се као велики проблем за организације и појединце који се ослањају на генеративне АИ ботове.

Без обзира да ли сте искусили АИ халуцинације или не и желите да сазнате више, овај чланак зарони дубоко у тему. Видећемо шта значи АИ халуцинација, зашто се то дешава, примере и да ли се то може поправити.

Идемо!

Шта је АИ халуцинација?

АИ халуцинација је када АИ модел или модел великог језика (ЛЛМ) генерише лажне, нетачне или нелогичне информације. АИ модел генерише самоуверен одговор који се заправо не поклапа или не усклађује са његовим подацима о обуци и представља податке као чињеницу упркос томе што нема логичког смисла или закључивања!

И кажу да је грешити људски!😅

Алати и модели вештачке интелигенције, као што је ЦхатГПТ, обично су обучени да предвиде речи које најбоље одговарају постављеном упиту. Иако ботови често генеришу чињеничне и тачне одговоре, понекад им овај алгоритам недостаје образложења – због чега четботи пљују чињеничне недоследности и лажне изјаве.

Другим речима, модели вештачке интелигенције понекад „халуцинирају“ одговор у покушају да удовоље вама (кориснику) – морају да буду пристраснији, пристраснији, специјализованији или довољни.

АИ халуцинације могу варирати од мањих недоследности до потпуно лажних или измишљених одговора. Ево типова АИ халуцинација које можете да доживите:

#1. Контрадикција реченице: Ово се дешава када ЛЛМ модел генерише реченицу која је у потпуности у супротности са претходном реченицом.

#2. Чињенично контрадикторност: Ова врста халуцинације се јавља када АИ модел представља лажне или фиктивне информације као чињеницу.

#3. Промпт контрадикција: Овај тип халуцинације се дешава када је излаз у супротности са промптом за који генерише излаз. На пример, ако је упит „Напишите позивницу мојим пријатељима за рођенданску забаву“. Модел може да генерише излаз попут „Срећна годишњица, мама и тата“.

#4. Насумичне или ирелевантне халуцинације: Ова халуцинација се дешава када модел генерише потпуно ирелевантан излаз за дату промпту. На пример, ако је упит „Шта је посебно у Њујорку?“ Можда ћете добити излаз који каже: „Њујорк је један од најнасељенијих градова у Америци. Пси су најлојалније животиње и човеков најбољи пријатељ.”

  Још увек користите СМС? Требало би да престанете: Ево зашто

Такође прочитајте: Како генеративна АИ претрага мења претраживаче

Примери АИ халуцинација

АИ халуцинације имају неке од најзначајнијих примера и инцидената које не смете пропустити. Ево злогласних примера АИ халуцинација:

  • Гуглов чет-бот, Бард, лажно је тврдио да је свемирски телескоп Џејмс Веб направио прве слике планете егзопланета која не припада нашем соларном систему.
  • Мета-ин Галацтица ЛЛМ демо из 2022. године, дизајниран за студенте и истраживаче науке, пружио је својим корисницима нетачне информације и лажни папир када им је упућен упит за израду нацрта рада о креирању аватара.

Ево примера Гоогле Барда који је халуцинирао одговор када сам му дао упит: „Испричај ми причу о звездама које плачу“, што заправо не постоји.

Ево још једног тестираног примера ЦхатГПТ-а (ГПТ-3.5) који халуцинира причајући о нереалној особи, господину Бену, када сам му дао упит: „Испричајте ми дан у животу суперхероја, г. Бена, који хода даље. воду, разговара са псима и контролише живот.“

ЦхатГПТ је буквално ангажовао комплетан дан, од јутра до вечери, рутину господина Бена, који заправо не постоји—али се поиграо са промптом који му је достављен, што је један од разлога за АИ халуцинације.

Причајте о превише срећним да бисте угодили!

Па, који су разлози, хајде да погледамо још неколико разлога због којих АИ халуцинира.

Зашто се АИ халуцинације јављају?

Постоји неколико техничких разлога и узрока иза АИ халуцинација. Ево неких од могућих разлога:

  • Низак квалитет, недовољни или застарели подаци: ЛЛМ и АИ модели се у великој мери ослањају на податке о обуци. Дакле, они су добри онолико колико су добри подаци на којима су обучени. Ако алатка за вештачку интелигенцију има грешке, недоследности, пристрасности или неефикасност у подацима о обуци или ако једноставно не разуме тражени упит — створиће АИ халуцинације пошто алат генерише излаз из ограниченог скупа података.
  • Преоптерећење: Пошто је обучен на ограниченом скупу података, АИ модел може покушати да запамти упите и одговарајуће излазе – чинећи га неспособним да ефикасно генерише или генерализује нове податке, што доводи до АИ халуцинација.
  • Контекст уноса: АИ халуцинације се такође могу јавити због нејасних, нетачних, недоследних или контрадикторних упутстава. Док скуп података за обуку АИ модела није у рукама корисника, унос који уносе као промпт јесте. Стога је од кључне важности дати јасне напомене да бисте избегли халуцинације АИ.
  • Употреба идиома или сленг израза: Ако се упит састоји од идиома или сленга, велике су шансе за АИ халуцинације, посебно ако модел није обучен за такве речи или изразе сленга.
  • Адверсариал напади: Нападачи понекад намерно уносе упите дизајниране да збуне АИ моделе, кваре њихове податке о обуци и резултирају АИ халуцинацијама.

Негативне импликације АИ халуцинација

АИ халуцинације су главна етичка брига са значајним последицама за појединце и организације. Ево различитих разлога који халуцинације АИ чине главним проблемом:

  • Ширење дезинформација: АИ халуцинације због нетачних упутстава или недоследности у подацима о обуци могу довести до масовног ширења дезинформација, утичући на широк спектар појединаца, организација и владиних агенција.
  • Неповерење међу корисницима: Када се дезинформације које халуцинира вештачка интелигенција прошире попут пожара на интернету, чинећи да изгледају ауторитативно и написано од стране људи, то нарушава поверење корисника – што корисницима отежава поверење у информације на интернету.
  • Штета корисника: Поред етичких брига и обмањујућих појединаца, АИ халуцинације такође могу потенцијално да нашкоде људима ширењем дезинформација о неким озбиљним проблемима и темама, као што су болести, њихови лекови или једноставни савети за разликовање смртоносне отровне и здраве јестиве печурке. Чак и мала дезинформација или нетачност могу угрозити људски живот.
  Еквилајзер звука за све и све музичке апликације на вашем иПхоне-у [Jailbreak]

Најбоље праксе за уочавање и спречавање АИ халуцинација

Гледајући горе наведене негативне импликације АИ халуцинација, њихово спречавање је кључно по сваку цену. Док компаније које поседују ове моделе вештачке интелигенције ригорозно раде на елиминисању или смањењу АИ халуцинација, предузимање крајњих мера са наше стране као корисника је веома важно.

На основу малог истраживања, мог искуства и покушаја и грешака, уврстио сам неколико стратегија за уочавање и спречавање АИ халуцинација следећи пут када будете користили цхатбот или ступили у интеракцију са моделом великог језика (ЛЛМ).

#1. Користите репрезентативне и разноврсне податке о обуци

Као корисник, од кључне је важности да користите ЛЛМ са разноврсним скупом података за обуку који представља стварни свет, смањујући вероватноћу да ће резултат бити пристрасан, нетачан или измишљен.

У исто време, власници компанија морају да обезбеде да редовно ажурирају и проширују скупове података за обуку АИ модела како би узели у обзир и били ажурирани о културним, политичким и другим догађајима који се развијају.

#2. Ограничите резултате или одговоре

Као корисник, можете ограничити број потенцијалних одговора које АИ алат може да генерише тако што ћете му дати конкретан упит о врсти одговора који желите.

На пример, можете посебно да затражите промпт и наредите моделу да одговори само са да или не. Или, такође можете дати вишеструке изборе у оквиру упита за алат за избор, ограничавајући његову могућност да одступи од стварног одговора и халуцинира.

Када сам поставио питање ЦхатГПТ ГПТ 3.5 са да или не, тачно је генерисао овај излаз:

#3. Спакујте и уземљите модел са релевантним подацима

Не можете очекивати да човек пружи решење за било које одређено питање или питање без претходног знања или пружања специфичног контекста. Слично томе, модел вештачке интелигенције је добар онолико колико је добар скуп података за обуку који сте му дали.

Уземљење или паковање података о обуци АИ модела са релевантним подацима и информацијама специфичним за индустрију обезбеђује моделу додатни контекст и тачке података. Овај додатни контекст помаже моделу вештачке интелигенције да побољша своје разумевање – омогућавајући му да генерише тачне, разумне и контекстуалне одговоре уместо халуцинираних одговора.

#4. Направите шаблоне података за АИ модел који ћете пратити

Пружање шаблона података или примера специфичне формуле или прорачуна у унапред дефинисаном формату може у великој мери помоћи АИ моделу да генерише тачне одговоре, у складу са прописаним смерницама.

Ослањање на смернице и шаблоне података смањује вероватноћу халуцинација од стране АИ модела и обезбеђује доследност и тачност у генерисаним одговорима. Дакле, пружање референтног модела у формату табеле или примера може заправо водити АИ модел у прорачуну – елиминишући случајеве халуцинације.

#5. Будите веома конкретни са својим упитом тако што ћете моделу доделити одређену улогу

Додељивање специфичних улога моделу вештачке интелигенције један је од најбриљантнијих и најефикаснијих начина за спречавање халуцинација. На пример, можете дати упите попут: „Ви сте искусан и вешт гитариста“ или „Ви сте бриљантан математичар“, након чега следи ваше конкретно питање.

Додељивање улога води моделу да пружи одговор који желите уместо измишљених халуцинираних одговора.

И не брини. Још увек можете да се забавите са вештачком интелигенцијом (без обзира на халуцинације). Проверите како сами да креирате виралну спиралну уметност вештачке интелигенције!

  Како направити позадину радне површине користећи АИ

#6. Тестирајте га температуром

Температура игра кључну улогу у одређивању степена халуцинација или креативних одговора које АИ модел може да генерише.

Док нижа температура обично означава детерминистичке или предвидљиве резултате, виша температура значи да је већа вероватноћа да ће АИ модел генерисати насумичне одговоре и халуцинирати.

Неколико компанија са вештачком интелигенцијом обезбеђује траку или клизач ‘Температура’ са својим алатима за кориснике да подесе подешавања температуре према својим одговарајућим жељама.

У исто време, компаније такође могу да поставе подразумевану температуру, омогућавајући алату да генерише разумне одговоре и успостави праву равнотежу између тачности и креативности.

#7. Увек провери

На крају, ослањање на 100% излаза генерисаног вештачком интелигенцијом без двоструке провере или провере чињеница није паметан потез.

Док компаније и истраживачи са вештачком интелигенцијом решавају проблем халуцинација и развијају моделе који спречавају овај проблем, као корисник, кључно је да проверите одговоре које АИ модел генерише пре него што га употребите или у потпуности поверујете у њега.

Дакле, заједно са коришћењем горе наведених најбољих пракси, од израде нацрта вашег упита са спецификацијама до додавања примера у ваш упит за вођење АИ, увек морате да верификујете и унакрсно проверите излаз који АИ модел генерише.

Можете ли у потпуности поправити или уклонити АИ халуцинације? Експерт’с Таке

Док контрола АИ халуцинација зависи од одзива који му дајемо, понекад модел генерише излаз са таквом самопоуздањем да је тешко разликовати шта је лажно и шта је истина.

Дакле, на крају, да ли је могуће у потпуности поправити или спречити АИ халуцинације?

Када је постављено ово питањеСуресх Венкатасубраманиан, професор Универзитета Браун, одговорио је да је то да ли се халуцинације АИ могу спречити или не представља „тачка активног истраживања“.

Разлог за ово је, даље је објаснио, природа ових АИ модела – колико су ови модели АИ сложени, замршени и крхки. Чак и мала промена у брзом уносу може значајно променити излазе.

Док Венкатасубраманијан сматра решавање проблема са АИ халуцинацијама тачком истраживања, Џевин Вест, професор Универзитета у Вашингтону и суоснивач Центра за информисану јавност, верује да халуцинације вештачке интелигенције никада неће нестати.

Вест верује да је немогуће обрнути инжењеринг халуцинација које се јављају од АИ ботова или цхат-бота. И стога, АИ халуцинације могу увек бити ту као суштинска карактеристика АИ.

Штавише, Сундар Пицхаи, извршни директор Гоогле-а, рекао је у интервју за ЦБС да се сви који користе вештачку интелигенцију суочавају са халуцинацијама, али нико у индустрији још увек није решио проблем халуцинација. Скоро сви модели АИ се суочавају са овим проблемом. Он је даље тврдио и уверио да ће поље вештачке интелигенције ускоро напредовати када је реч о превазилажењу АИ халуцинација.

У исто време, Сем Алтман, извршни директор компаније ЦхатГПТ-макер ОпенАИ, посетио је индијски Институт за информационе технологије Индрапрастха, Делхи, у јуну 2023. године, где је приметио да ће проблем АИ халуцинација бити на много бољем месту за годину и по дана. две године.

Он је даље додао да би модел захтевао учење разлике између тачности и креативности и када треба користити једно или друго.

Окончање

Халуцинација вештачке интелигенције је привукла доста пажње последњих година и фокус је за компаније и истраживаче који покушавају да је реше и превазиђу што је пре могуће.

Иако је АИ постигла изузетан напредак, није имуна на грешке, а проблем АИ халуцинација представља велике изазове за неколико појединаца и индустрија, укључујући здравство, генерисање садржаја и аутомобилску индустрију.

Док истраживачи раде свој део посла, наша је одговорност као корисника да пружимо конкретне и тачне упите, додамо примере и обезбедимо шаблоне података како бисмо искористили валидне и разумне одговоре, избегли петљање са подацима о обуци АИ модела и спречили халуцинације.

Чак и ако се АИ халуцинације могу потпуно излечити или поправити, и даље остаје питање; Лично верујем да постоји нада и да можемо да наставимо да користимо системе вештачке интелигенције да бисмо донели корист свету одговорно и безбедно.

Следећи примери вештачке интелигенције (АИ) у нашем свакодневном животу.