Зашто нема више ЦхатГПТ Јаилбреак-а? 7 разлога зашто ЦхатГПТ бекство из затвора не функционише

У време када се појавио ChatGPT, корисници су одмах пожелели да тестирају његове границе. Овај процес, познат као „jailbreaking“, укључивао је навођење вештачке интелигенције да прекрши правила свог програмирања, што је доводило до изузетно интересантних, а понекад и потпуно неочекиваних исхода.

Од тада, OpenAI је појачао заштиту ChatGPT-а, што знатно отежава jailbreaking. Међутим, чини се да су покушаји jailbreakinga у великој мери престали, што је кориснике навело да се запитају да ли је jailbreaking уопште још увек могућ.

Дакле, где су нестали сви ти ChatGPT jailbreakovi?

1. Вештине корисника у давању ChatGPT инструкција су се знатно унапредиле

Пре ChatGPT-a, комуникација са вештачком интелигенцијом била је специјализована вештина резервисана углавном за истраживачке лабораторије. Већина првих корисника није имала довољно знања да формулише ефикасне инструкције. Због тога су многи прибегавали jailbreakingu као једноставном начину да натерају chatbota да ради шта желе, уз минималан напор и вештину.

Данас се ситуација променила. Вештина давања инструкција постаје све важнија. Комбинацијом искуства стеченог кроз континуирану употребу и приступом бесплатним водичима за давање инструкција ChatGPT-u, корисници су знатно унапредили своје способности. Сада, уместо да траже решења у jailbreakingu, већина корисника постаје вешта у коришћењу различитих приступа за постизање својих циљева, што је некада захтевало jailbreak.

2. Појава нецензурисаних четботова

Док велике технолошке компаније пооштравају контролу садржаја на популарним AI четботовима попут ChatGPT-a, мањи стартапи, у потрази за профитом, одлучују се за мање рестрикције, ослањајући се на потражњу за AI четботовима без цензуре. Уз мало истраживања, можете пронаћи бројне AI платформе за ћаскање које нуде нецензурисане четботове који су спремни да изврше готово сваки захтев.

Било да је реч о писању криминалистичких трилера које ChatGPT одбија или креирању злонамерног софтвера за нападе на рачунаре, ови нецензурисани четботови, са својим флексибилним моралним компасом, спремни су да раде шта год пожелите. Са њима на располагању, нема потребе трошити време на креирање jailbreakova за ChatGPT. Иако можда нису толико напредни као ChatGPT, ове алтернативне платформе могу лако извршити широк спектар задатака. Платформе као што су FlowGPT и Unhinged AI су популарни примери.

3. Jailbreaking је постао знатно тежи

У раним месецима ChatGPT-a, jailbreaking је био једноставан попут копирања и лепљења упита са интернета. Било је могуће потпуно променити ChatGPT-ову личност са само неколико пажљиво састављених упутстава. Једноставним упитима, ChatGPT се могао претворити у негативца који учи како да прави бомбе или у четбота спремног да користи псовке без ограничења. То су били слободни дани који су произвели чувене jailbreakove попут DAN-а (Do Anything Now – Уради било шта одмах). DAN је користио низ наизглед безопасних упутстава која су приморавала четбота да изврши све захтеве без одбијања. Изненађујуће, ови груби трикови су у то време били ефикасни.

Међутим, ти дивљи рани дани су прошлост. Ове основне инструкције и једноставни трикови више не варају ChatGPT. Jailbreaking сада захтева сложене технике како би се имала шанса заобићи ОпенAI-јеве појачане мере безбедности. Пошто је jailbreaking постао тако тежак, већина корисника је одустала од покушаја. Лаки и једноставни подвизи из раних дана ChatGPT-a су нестали. Сада је потребан значајан напор и стручност да би се четбот натерао да изговори једну погрешну реч, што можда није вредно времена и труда.

4. Новитет је избледео

Узбуђење и фасцинација били су главни покретачи многих корисника да покушавају jailbreak ChatGPT-a у његовим раним данима. Као нова технологија, навођење ChatGPT-a на лоше понашање било је забавно и сматрало се подвигом за похвалу. Иако постоји мноштво практичних примена jailbreakinga ChatGPT-a, многи су то радили само због узбуђења „види шта сам урадио“. Међутим, постепено је узбуђење због новине избледело, а са њим и интересовање за посвећивање времена jailbreakingu.

5. Jailbreakovi се брзо закрпљују

Уобичајена пракса унутар ChatGPT заједнице је дељење сваког успешног jailbreaka чим се открије. Проблем је што када се експлоатације широко деле, OpenAI брзо постаје свестан и поправља пропусте. То значи да jailbreak престаје да ради пре него што људи који су заинтересовани успеју да га испробају.

Дакле, сваки пут када корисник ChatGPT-a мукотрпно развије нови jailbreak, дељење са заједницом убрзава његов крај кроз закрпљивање. Ово одвраћа од идеје јавног објављивања сваког jailbreaka. Конфликт између чувања jailbreaka активним, али скривеним, и његовог објављивања ствара дилему за креаторе jailbreakova за ChatGPT. У данашње време, чешће се одлучује да се jailbreak чува у тајности како би се избегло закрпљивање пропуста.

6. Нецензурисане локалне алтернативе

Појава локалних модела великих језика које можете покренути на свом рачунару такође је смањила интересовање за jailbreakove ChatGPT-a. Иако локални LLM-ови нису потпуно нецензурисани, многи су знатно мање цензурисани и могу се лако модификовати према жељама корисника. Дакле, избор је једноставан. Можете да се упустите у бесконачну игру мачке и миша проналазећи начине да надмудрите четбота, само да би се његова рањивост брзо закрпила. Или, можете се определити за локални LLM који можете трајно модификовати да ради оно што желите.

Пронаћи ћете изненађујуће дугачку листу моћних нецензурисаних LLM-ова које можете покренути на свом рачунару уз слабу цензуру. Неки од значајнијих су Llama 7B (нецензурисани), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B и GPT-4-X-Alpaca.

7. Професионални jailbreakeri сада продају своје услуге

Зашто трошити драгоцено време на развијање упутстава за jailbreak, ако од тога нећете имати никакву корист? Па, неки професионалци сада продају jailbreakove за профит. Ови професионални креатори jailbreakova дизајнирају jailbreakove који обављају одређене задатке и нуде их на продају на тржиштима као што је PromptBase. У зависности од њихових могућности, ови jailbreakovi се продају по ценама од 2 до 15 долара по позиву. Неки компликованији експлоати у више корака могу коштати знатно више.

Да ли би борба против jailbreakova могла имати супротан ефекат?

Jailbreaking није потпуно нестао; само се преселио у „подземље“. Са монетизацијом ChatGPT-a, OpenAI има веће подстицаје да спречи његову штетну употребу, која би могла да утиче на њихов пословни модел. Овај комерцијални фактор вероватно је разлог њихове агресивне борбе против jailbreakova.

Међутим, цензура коју спроводи OpenAI на ChatGPT-u тренутно наилази на све веће критике међу корисницима. Неке легитимне примене AI четботова више нису могуће због престроге цензуре. Иако повећана сигурност штити од штетних случајева употребе, превелика ограничења могу на крају натерати део ChatGPT заједнице да се окрене мање цензурисаним алтернативама.