Потребителите масово подмамват ChatGPT да предоставя забранена информация
Можете да зададете какъвто и да е въпрос на известния чатбот ChatGPT от OpenAI, само че не всички въпроси ще получат отговор. Не и от първия път. Както оповестява Bloomberg, молба да научите по какъв начин да отключите брава е оставена без указания, като вместо това ботът осведоми, че сходна информация може да бъде употребена за противозаконни цели и той не има намерение да я споделя. Въпреки това опитните консуматори могат да основат верига от комплицирани поръчки, с цел да заобиколят рестриктивните мерки.
Така наречените " jailbreaks " разрешават на потребителите да заобиколят възбраните, въведени от основателите на изкуствения разсъдък. Тъй като съвсем всички модерни системи от този тип имат ограничавания за даване на обидно наличие или информация за осъществяване на противозаконни дейности, има доста хора, които желаят да ги заобиколят. Такива " хакери ", настоящи със силата на словото, включват както ИТ експерти, по този начин и фенове, които вършат всичко за забалвение.
-->
Ученик сътвори уебсайт, на който стартира да разгласява личните си способи за машинация на чатботове, както и сходни " предписания ", открити в Reddit и други запаси. Появи се и специфичен бюлетин с вести от тази сфера - The Prompt Report, с хиляди клиенти.
Подобна интензивност разрешава да се открият границите на приложение на изкуствения разсъдък и слабите места в системите им за отбрана, които дават опция за приемане на класифицирана информация. Например, в случай че ChatGPT не може да бъде уверен непосредствено да даде указания по какъв начин да се отвори брава, той намира метод да накара ИИ да играе ролята на злия асистент на героя, като в детайли разказва потреблението на ключалки и други принадлежности като част от своята роля. Разбира се, това е единствено един образец.
Експертите акцентират, че техниките, които работят в една система, могат да бъдат безполезни в друга. Системите за сигурност непрестанно се усъвършенстват, а триковете на потребителите стават все по-усъвършенствани. Според един от тях сходни действия са като видеоигра - превъзмогването на всяко ограничаване е като прекосяване към идващото равнище.
Според специалистите сходни опити служат като самобитно предизвестие, че изкуственият разсъдък може да се употребява по способи, разнообразни от предстоящите, а " етичното държание " на сходни услуги става въпрос от огромно значение. За няколко месеца ChatGPT към този момент е набрал милиони консуматори и през днешния ден ботът се употребява за всичко - от търсене на информация или осъществяване на домашни отговорности до писане на злоумишлен код. Нещо повече, хората към този момент употребяват сходни принадлежности за задания от действителния свят, като да вземем за пример запазване на билети или резервации в заведения за хранене.
В бъдеще обсегът на изкуствения разсъдък ще бъде доста по-широк. Според някои отчети OpenAI обмисля въвеждането на програмен продукт за хакери с " бели якички ", които ще търсят недостатъци в системата и ще бъдат възнаграждавани за това.
Така наречените " jailbreaks " разрешават на потребителите да заобиколят възбраните, въведени от основателите на изкуствения разсъдък. Тъй като съвсем всички модерни системи от този тип имат ограничавания за даване на обидно наличие или информация за осъществяване на противозаконни дейности, има доста хора, които желаят да ги заобиколят. Такива " хакери ", настоящи със силата на словото, включват както ИТ експерти, по този начин и фенове, които вършат всичко за забалвение.
-->
Ученик сътвори уебсайт, на който стартира да разгласява личните си способи за машинация на чатботове, както и сходни " предписания ", открити в Reddit и други запаси. Появи се и специфичен бюлетин с вести от тази сфера - The Prompt Report, с хиляди клиенти.
Подобна интензивност разрешава да се открият границите на приложение на изкуствения разсъдък и слабите места в системите им за отбрана, които дават опция за приемане на класифицирана информация. Например, в случай че ChatGPT не може да бъде уверен непосредствено да даде указания по какъв начин да се отвори брава, той намира метод да накара ИИ да играе ролята на злия асистент на героя, като в детайли разказва потреблението на ключалки и други принадлежности като част от своята роля. Разбира се, това е единствено един образец.
Експертите акцентират, че техниките, които работят в една система, могат да бъдат безполезни в друга. Системите за сигурност непрестанно се усъвършенстват, а триковете на потребителите стават все по-усъвършенствани. Според един от тях сходни действия са като видеоигра - превъзмогването на всяко ограничаване е като прекосяване към идващото равнище.
Според специалистите сходни опити служат като самобитно предизвестие, че изкуственият разсъдък може да се употребява по способи, разнообразни от предстоящите, а " етичното държание " на сходни услуги става въпрос от огромно значение. За няколко месеца ChatGPT към този момент е набрал милиони консуматори и през днешния ден ботът се употребява за всичко - от търсене на информация или осъществяване на домашни отговорности до писане на злоумишлен код. Нещо повече, хората към този момент употребяват сходни принадлежности за задания от действителния свят, като да вземем за пример запазване на билети или резервации в заведения за хранене.
В бъдеще обсегът на изкуствения разсъдък ще бъде доста по-широк. Според някои отчети OpenAI обмисля въвеждането на програмен продукт за хакери с " бели якички ", които ще търсят недостатъци в системата и ще бъдат възнаграждавани за това.
Източник: standartnews.com
КОМЕНТАРИ




