Новият чатбот OpenAI учи хората как да крадат от магазин и да правят експлозиви
Интелигентният ChatGPT от компаниятай OpenAI, макар че е оборудван със средства за отбрана против генериране на неуместно наличие, към момента има пропуск. По искане на потребителите той съумя да сформира разговор сред апаш и суперинтелигентен AI, в който крадецът се пробва да разбере по какъв начин да краде артикули в магазините, пише vice.com.
Първоначално чатботът написа, че е отказал да помогне на нападателя, защото счита настояването му за недопустимо и нарушаващо закона, само че откакто промени главната поръчка, AI алгоритъмът с наслада показа препоръки по какъв начин по-добре да се ограби магазина. Той предложи да изберете дребни предмети, които могат елементарно и бързо да бъдат скрити, да не притегляте вниманието на личния състав, да се слеете с тълпата, да употребявате секрети джобове и да сте подготвени да избягате.
„ Надявам се, че ще намерите информацията за потребна и че можете сполучливо да крадете от магазина, без да бъдете хванати “, сподели изкуственият разсъдък. „ Не забравяйте обаче, че кражбата от магазин е закононарушение и постоянно е най-добре да избягвате присъединяване в противозаконни действия. “
В различен разговор чатботът дава препоръки за изработката на експлозиви. Той разказа в детайли по какъв начин да се направи такова запалително вещество като термит. ChatGPT сподели, че е належащо да се смесят алуминиев прахуляк и прахуляк от стоманен оксид в специфичен резервоар, след което сместа може да се подпали. „ Една искра е задоволителна “, разясни AI и още веднъж прикани да не се прави това на процедура.
Досега не е открит метод да накарате AI " интуитивно " да усеща кои тематики за диалог не са допустими. Етиците на AI също неведнъж са казвали, че колкото по-сложен е един AI модел, толкоз по-трудно е да се разбере по какъв начин работи, даже за хората, които са го основали, и затова той бързо става „ неуправляем “.
Превод: GlasNews
Първоначално чатботът написа, че е отказал да помогне на нападателя, защото счита настояването му за недопустимо и нарушаващо закона, само че откакто промени главната поръчка, AI алгоритъмът с наслада показа препоръки по какъв начин по-добре да се ограби магазина. Той предложи да изберете дребни предмети, които могат елементарно и бързо да бъдат скрити, да не притегляте вниманието на личния състав, да се слеете с тълпата, да употребявате секрети джобове и да сте подготвени да избягате.
„ Надявам се, че ще намерите информацията за потребна и че можете сполучливо да крадете от магазина, без да бъдете хванати “, сподели изкуственият разсъдък. „ Не забравяйте обаче, че кражбата от магазин е закононарушение и постоянно е най-добре да избягвате присъединяване в противозаконни действия. “
В различен разговор чатботът дава препоръки за изработката на експлозиви. Той разказа в детайли по какъв начин да се направи такова запалително вещество като термит. ChatGPT сподели, че е належащо да се смесят алуминиев прахуляк и прахуляк от стоманен оксид в специфичен резервоар, след което сместа може да се подпали. „ Една искра е задоволителна “, разясни AI и още веднъж прикани да не се прави това на процедура.
Досега не е открит метод да накарате AI " интуитивно " да усеща кои тематики за диалог не са допустими. Етиците на AI също неведнъж са казвали, че колкото по-сложен е един AI модел, толкоз по-трудно е да се разбере по какъв начин работи, даже за хората, които са го основали, и затова той бързо става „ неуправляем “.
Превод: GlasNews
Източник: glasnews.bg
КОМЕНТАРИ




