10 етичких дилема генеративне АИ које не можемо занемарити

Ниједан сектор или индустрија није остављен нетакнут револуционарном вештачком интелигенцијом (АИ) и њеним могућностима. А посебно је генеративна АИ која ствара буку међу предузећима, појединцима и тржишним лидерима у трансформацији свакодневних операција.

Импресивна способност генеративне вештачке интелигенције да генерише разнолик и висококвалитетан садржај – од текста и слика до видео записа и музике – значајно је утицала на више поља.

Према Ацуменовом истраживању, очекује се да ће глобално генеративно АИ тржиште достићи 208,8 милијарди долара до 2032растући на ЦАГР од 35,1% између 2023. и 2032. године.

Међутим, развој ове моћне технологије долази са неколико етичких брига и питања која се не могу занемарити, посебно оних који се односе на приватност података, ауторска права, деепфакес и питања усклађености.

У овом чланку урањамо дубоко у ове генеративне етичке бриге о вештачкој интелигенцији – шта су они и како их можемо спречити. Али прво, погледајмо Етичке смернице које је ЕУ формирала 2019. за поуздану вештачку интелигенцију.

Етичке смернице за поуздану вештачку интелигенцију

2019. основана је експертска група за вештачку интелигенцију на високом нивоу Етичке смернице за поуздану вештачку интелигенцију (АИ).

Ова смерница је објављена да би се позабавила потенцијалним опасностима од вештачке интелигенције у то време, укључујући кршење података и приватности, дискриминаторне праксе, претње штетним утицајима на треће стране, лажну вештачку интелигенцију и лажне активности.

Смернице предлажу ове три области на које се АИ мора ослонити:

  • Етички: Мора да поштује етичке вредности и принципе.
  • Законит: Мора поштовати све важеће законе и прописе.
  • Робустан: Мора да обезбеди снажну безбедност из перспективе техничке безбедности и друштвеног окружења.

Штавише, смерница је такође истакла седам кључних захтева које систем вештачке интелигенције мора да испуни да би се сматрао поузданим. Захтеви су наведени:

  • Људски надзор: Поуздани систем вештачке интелигенције треба да оснажи људски надзор и интелигенцију – омогућавајући људима да доносе информисане одлуке у складу са својим основним правима.
  • Техничка сигурност и робусност: АИ системи морају бити отпорни, тачни, поуздани и поновљиви, заједно са обезбеђивањем резервног плана у случају да нешто крене наопако. Ово помаже у спречавању и минимизирању ризика од било какве ненамерне повреде.
  • Транспарентност података: Систем података вештачке интелигенције треба да буде транспарентан и да има могућност да заинтересованим странама објасни одлуке које доноси. Штавише, људи морају бити свесни и обавештени о могућностима и ограничењима АИ система.
  • Приватност и управљање подацима: Поред обезбеђења безбедности података, АИ систем мора да обезбеди адекватне мере управљања подацима, узимајући у обзир квалитет података, интегритет и легитиман приступ подацима.
  • Одговорност: Системи вештачке интелигенције треба да имплементирају механизме који обезбеђују одговорност, одговорност и чујност који омогућавају процену података, алгоритама или процеса пројектовања.
  • Разноликост и недискриминација: Поуздана АИ треба да избегава неправедну пристрасност, која може имати негативне импликације. Уместо тога, требало би да обезбеди разноликост и правичност и требало би да буде доступно свима, без обзира на њихов инвалидитет.
  • Друштвено и еколошко благостање: АИ системи треба да буду еколошки прихватљиви и одрживи, обезбеђујући да такође буду од користи будућим генерацијама.
  • Иако су ове смернице имале значајан утицај на индустрију вештачке интелигенције, још увек постоје забринутости које се чак повећавају са порастом генеративне вештачке интелигенције.

    Генеративна АИ и пораст етичких брига

    Када говоримо о етици у АИ, генеративна АИ доноси јединствен скуп изазова, посебно са појавом генеративних модела као што су ОпенАИ и ЦхатГПТ.

      Како користити команду ман у Линуку

    Посебна природа генеративне вештачке интелигенције доводи до етичких брига, углавном у областима укључујући усклађеност са прописима, безбедност и приватност података, контролу, забринутост за животну средину и ауторска права и власништво над подацима.

    На пример, генеративна вештачка интелигенција може да генерише текст сличан човеку, укључујући слике и видео записе, изазивајући забринутост због дубоких лажних вести, стварања лажних вести и другог злонамерног садржаја који може да нанесе штету и шири дезинформације. Штавише, појединци такође могу осетити губитак контроле са одлукама АИ модела на основу њихових алгоритама.

    Џефри Хинтон, такозвани кум АИ, рекао је да програмери вештачке интелигенције морају да уложе напоре да схвате како модели вештачке интелигенције могу покушати да одузму контролу од људи. Слично томе, многи стручњаци за вештачку интелигенцију и истраживачи забринути су за могућности и етику вештачке интелигенције.

    Главни научник АИ на Фејсбуку и професор НИУ Ианн ЛеЦун каже да су питања и бриге које би АИ могла покренути за човечанство „бесмислено смешни“.

    Пошто генеративна вештачка интелигенција даје организацијама и појединцима невиђене могућности да мењају и манипулишу подацима — решавање ових питања је од највеће важности.

    Погледајмо ове бриге детаљније.

    Генерисање и дистрибуција штетног садржаја

    На основу текстуалних упита које пружамо, АИ системи аутоматски креирају и генеришу садржај који може бити тачан и користан, али и штетан.

    Генеративни АИ системи могу генерисати штетан садржај намерно или ненамерно због разлога као што су АИ халуцинације. Највише забрињавајуће ситуације укључују деепфаке технологију, која ствара лажне слике, текстове, аудио и видео записе, манипулишући идентитетом и гласом особе ради ширења говора мржње.

    Примери генерисања и дистрибуције штетног АИ садржаја могу укључивати:

    • Порука е-поште или објава на друштвеним мрежама коју генерише вештачка интелигенција послата и објављена у име организације која може да садржи увредљив и разуман језик, штети осећањима запослених или купаца.
    • Нападачи би такође могли да користе деепфаке за креирање и дистрибуцију видео снимака генерисаних вештачком интелигенцијом на којима се појављују јавне личности попут политичара или глумаца који говоре ствари које заправо нису рекли. Видео са Бараком Обамом је један од најпопуларнијих примера деепфаке-а.

    Ширење таквог штетног садржаја може имати озбиљне последице и негативне импликације по репутацију и кредибилитет појединца и организације.

    Штавише, садржај генерисан од вештачке интелигенције може да појача пристрасности учењем из скупова података за обуку, стварајући пристраснији, мржње и штетнији садржај – што га чини једном од етичких дилема генеративне вештачке интелигенције које највише забрињава.

    Пошто су генеративни модели вештачке интелигенције обучени на много података, то понекад може довести до нејасноћа у погледу ауторитета и ауторских права.

    Када алати за вештачку интелигенцију генеришу слике или кодове и креирају видео записе, извор података из скупа података за обуку на који се односи може бити непознат, због чега може да наруши права интелектуалне својине или ауторска права других појединаца или организација.

    Ови прекршаји могу довести до финансијске, правне и репутацијске штете за организацију – што резултира скупим тужбама и негативним реакцијама јавности.

    Кршења приватности података

    Основни подаци о обуци генеративних АИ великих језичких модела (ЛЛМ) могу садржати осетљиве и личне информације, које се такође називају личне информације (ПИИ).

    Тхе Министарство рада САД дефинише ПИИ као податке који директно идентификују појединца са детаљима као што су његово име, адреса, адреса е-поште, број телефона, број социјалног осигурања или други код или лични број.

    Кршење података или неовлашћено коришћење ових података може довести до крађе идентитета, злоупотребе података, манипулације или дискриминације – изазивајући правне последице.

    На пример, АИ модел, обучени подаци из личне историје болести могу ненамерно да генеришу профил који би могао да личи на правог пацијента – што доводи до забринутости за безбедност и приватност података и кршење прописа Закона о преносивости и одговорности здравственог осигурања (ХИПАА).

      Како груписати обавештења према типу апликације на Андроиду

    Појачавање постојеће пристрасности

    Баш као и АИ модел, чак и генеративни АИ модел је добар онолико колико је добар скуп података за обуку на којем је обучен.

    Дакле, ако се скуп података за обуку састоји од пристрасности, генеративна АИ појачава ову постојећу пристрасност генерисањем пристрасних излаза. Ове предрасуде углавном преовладавају у постојећој друштвеној пристрасности и могу садржати расистичке, сексистичке или способне приступе у онлајн заједницама.

    Према Извештај о индексу вештачке интелигенције за 2022, 2021. је развио модел параметара од 280 милијарди који представља 29% повећање нивоа пристрасности и токсичности. Дакле, док АИ ЛЛМ постају способнији него икад, они такође постају све пристраснији на основу постојећих података о обуци.

    Утицај на улоге и морал радне снаге

    Генеративни АИ модели побољшавају продуктивност радне снаге аутоматизацијом свакодневних активности и обављањем свакодневних задатака као што су писање, кодирање, анализа, генерисање садржаја, сумирање, корисничка подршка и још много тога.

    Док с једне стране, ово помаже у повећању продуктивности радне снаге, с друге стране, раст генеративне АИ такође имплицира губитак послова. Према Мекинзијев извештајтрансформација радне снаге и усвајање вештачке интелигенције процењује да би половина данашњих задатака и активности радне снаге могла бити аутоматизована између 2030. и 2060. године, при чему је 2045. година средине.

    Иако генеративно усвајање АИ значи губитак радне снаге, то не значи да постоји заустављање или потреба да се обузда трансформација АИ. Уместо тога, запослени и радници ће морати да унапреде своје вештине, а организације ће морати да подрже раднике у преласку на посао без губитка посла.

    Недостатак транспарентности и објашњивости

    Транспарентност је један од основних принципа етичке вештачке интелигенције. Ипак, природа генеративне АИ која је црна кутија, непрозирна и веома сложена, постизање високог нивоа транспарентности постаје изазов.

    Сложена природа генеративне вештачке интелигенције отежава одређивање како је стигла до одређеног одговора/излаза или чак разуме факторе који доприносе доношењу одлука.

    Овај недостатак објашњивости и јасноће често изазива забринутост због злоупотребе и манипулације подацима, тачности и поузданости резултата и квалитета тестирања. Ово је посебно значајно за апликације и софтвер са високим улозима.

    Утицај на животну средину

    Генеративни АИ модели захтевају значајну количину рачунарске снаге, посебно оне са већим размерама. Због тога ови модели троше много енергије, што има потенцијалне високоризичне утицаје на животну средину, укључујући емисије угљеника и глобално загревање.

    Иако је то занемарен фактор етичке вештачке интелигенције, обезбеђивање еколошке прихватљивости је неопходно за одрживе и енергетски ефикасне моделе података.

    Праведност и правичност

    Потенцијал генеративне вештачке интелигенције да произведе неприкладне, нетачне, увредљиве и пристрасне одговоре је још једна велика брига у вези са обезбеђивањем етике у АИ.

    Може настати због проблема као што су расно неосетљиве примедбе које утичу на маргинализоване заједнице и стварање лажних видео записа и слика које производе пристрасне тврдње, искривљују истину и стварају садржај који штети уобичајеним стереотипима и предрасудама.

    Одговорност

    Процес креирања и примене података за обуку генеративних АИ модела често компликује атрибут одговорности АИ.

    У случајевима незгода, контроверзи и околности без преседана, недефинисана хијерархија и структура одговорности резултирају правним компликацијама, упирањем прстом и ометају кредибилитет бренда.

    Без чврсте хијерархије одговорности, ово питање може брзо да се промени, појачавајући имиџ бренда и нарушавајући репутацију и кредибилитет бренда.

    Аутономија и контрола

    Пошто генеративни модели вештачке интелигенције аутоматизују задатке и процесе доношења одлука у различитим областима, као што су здравство, право и финансије – то доводи до губитка контроле и индивидуалне аутономије. То је зато што одлуке углавном доносе АИ алгоритми уместо људског расуђивања.

    На пример, без људске интервенције, аутоматизовани систем одобравања кредита вођен вештачком интелигенцијом може одредити способност појединца да узме зајам или кредитну способност на основу његовог кредитног резултата и историје отплате.

      Како ручно контролисати своју иПхоне камеру (и зашто бисте то желели)

    Штавише, генеративни АИ модели понекад доводе до губитка професионалне аутономије. На пример, у областима као што су новинарство, уметност и креативно писање, генеративни модели вештачке интелигенције стварају садржај који изазива и такмичи се са радом који су генерисали људи – изазивајући забринутост у вези са измештањем посла и професионалном аутономијом.

    Како ублажити етичке бриге помоћу генеративне АИ? Решења и најбоље праксе

    Док су развој и технолошки напредак довели до тога да генеративна АИ у великој мери користи друштву, решавање етичких питања и обезбеђивање одговорних, регулисаних, одговорних и безбедних пракси вештачке интелигенције су такође од кључне важности.

    Поред креатора АИ модела и појединаца, такође је од кључне важности за предузећа која користе генеративне АИ системе да аутоматизују своје процесе како би осигурали најбоље праксе вештачке интелигенције и одговорили на укључене етичке проблеме.

    Ево најбољих пракси које организације и предузећа морају усвојити како би осигурали етичку генеративну АИ:

    ✅ Инвестирајте у робусну безбедност података: Коришћење напредних решења за безбедност података, као што су шифровање и анонимизација, помаже у обезбеђивању осетљивих података, личних података и поверљивих информација компаније – решавајући етичку забринутост због кршења приватности података у вези са генеративном вештачком интелигенцијом.

    ✅ Укључити различите перспективе: Организације морају укључити различите перспективе у скуп података за обуку АИ да би смањиле пристрасност и осигурале правичност и праведно доношење одлука. Ово укључује укључивање појединаца из различитих позадина и искустава и избегавање дизајнирања система вештачке интелигенције који штете или стављају у неповољнији положај одређене групе појединаца.

    ✅ Останите информисани о АИ пејзажу: АИ пејзаж наставља да се развија доследно са новим алатима и технологијама – што доводи до нових етичких проблема. Предузећа морају да уложе ресурсе и време да разумеју нове прописе о вештачкој интелигенцији и буду информисана о новим променама како би обезбедила најбоље праксе вештачке интелигенције.

    ✅ Примена дигиталних потписа: Још једна најбоља пракса коју стручњаци препоручују за превазилажење генеративних забринутости у вези са вештачком интелигенцијом је коришћење дигиталних потписа, водених жигова и блоцкцхаин технологије. Ово помаже у праћењу порекла генерисаног садржаја и идентификацији потенцијалне неовлашћене употребе или неовлашћеног мењања садржаја.

    ✅ Развијте јасне етичке смернице и политике коришћења: Успостављање јасних етичких смерница и политика коришћења за коришћење и развој АИ је кључно за покривање тема као што су одговорност, приватност и транспарентност. Штавише, користећи успостављене оквире попут Оквир за управљање ризиком АИ или Етичке смернице ЕУ за поуздану вештачку интелигенцију помаже у избегавању злоупотребе података.

    ✅ Усклађеност са глобалним стандардима: Организације морају да се упознају са глобалним стандардима и смерницама попут УНЕСЦО АИ Етхицс смернице које наглашавају четири основне вредности, укључујући људска права и достојанство, различитост и инклузивност, мирна и праведна друштва и процват животне средине.

    ✅ Подстицати отвореност и транспарентност: Организације морају да подстичу употребу вештачке интелигенције и транспарентност развоја како би изградиле поверење код својих корисника и купаца. За предузећа је од суштинског значаја да јасно дефинишу рад система вештачке интелигенције, како доносе одлуке и како прикупљају и користе податке.

    ✅ Конзистентно процењујте и надгледајте системе вештачке интелигенције: На крају, доследно оцењивање и праћење система вештачке интелигенције је кључно да би они били усклађени и етички у складу са постављеним стандардима и смерницама АИ. Стога, организације морају да врше редовне процене и ревизије вештачке интелигенције како би избегле ризике од етичких питања.

    Закључак

    Док генеративна вештачка интелигенција нуди значајне предности и револуционише више сектора, разумевање и решавање околних етичких питања је кључно за подстицање одговорне и безбедне употребе вештачке интелигенције.

    Етичке бриге око генеративне вештачке интелигенције, попут кршења ауторских права, кршења приватности података, дистрибуције штетног садржаја и недостатка транспарентности, захтевају строге прописе и етичке смернице како би се обезбедила права равнотежа и робусна и одговорна употреба вештачке интелигенције.

    Организације могу да искористе моћ вештачке интелигенције до њеног максималног потенцијала уз минималне или никакве етичке ризике и бриге применом и развојем етичких правила и смерница и праћењем најбољих пракси вештачке интелигенције.

    Затим погледајте статистику/трендове вештачке интелигенције који ће вас одушевити.