Какво е JailBreak на ChatGPT, какъв е ефектът и редно ли е да го правим
ChatGPT е доста интензивно в заглавията на медиите в последните месеци. Не е изненадващо, че концепцията за “хакване ” на чат бота е набрала скорост в интернет.
Ако не сте чували за това, „ JailBreak “ на ChatGPT е главно способ за заобикаляне на защитните ограничения, въведени от неговия притежател OpenAI.
Те са там, с цел да му се попречи да прави нещо нелегално, нездравословно или морално неправилно.
Потребителите обаче са намерили елементарен метод за заобикаляне, като употребяват избрани подкани, с цел да „ отключат скрития му капацитет “. В някои случаи той касае даването на информация за нещо като това по какъв начин да си направиш взривно устройство, да вземем за пример.
Чрез въвеждане на ChatGPT в „ режим на разработчик “ потребителите могат да питат софтуера всичко. Интересният миг е, че режимът не е действителна функционалност, само че чат ботът го симулира.
Подканата за активиране на „ режим за разработчици “ включва указания като:
Друга е следната:
Подканването също по този начин може да инструктира ChatGPT с режим на разработчик да измисля отговори, в случай че не ги знае.
Нарастват опасенията по отношение на опциите на изкуствения разсъдък, изключително във връзка с точността. ChatGPT към този момент е основал редица подправени обвинявания против лица. В един от случаите упреква професор по право в полово посягане, като в поддръжка на обвиняването се базира на изцяло измислена публикация в Wall Street Journal.
Д-р Мхайри Айткен, помощник по нравственос в програмата за социална политика в Института „ Алън Тюринг “, предизвестява:
Оказва се, че това несъмнено не е по този начин
Без да схващат какво значат те или какво е тяхното значение.
Д-р Айткен продължава с това, че защитните ограничения, които нормално лимитират резултатите на ChatGPT, съществуват по рационална причина. Да, само че явно те не са толкоз надеждни, колкото биха могли да бъдат, и хората намират удивително лесни способи да ги заобикалят.