ChatGPT може да бъде заблуден и да казва на хората как да извършват престъпления
ChatGPT може да бъде манипулиран да дава подробни препоръки за осъществяване на закононарушения, вариращи от пране на пари до експорт на оръжия за глобени страни, откри софтуерен стартъп, което повдига въпроси по отношение на отбраните на чатбота против потреблението му за противозаконни действия.
Норвежката компания „ Strise “ организира опити, като попита ChatGPT за препоръки по отношение на осъществяването на съответни закононарушения. В един от опитите, извършен предишния месец, чатботът предложил препоръки за това по какъв начин да се перат пари през граници, съгласно „ Strise “.
В различен опит, извършен по-рано този месец, ChatGPT основал описи с способи, които могат да оказват помощ на бизнеса да избегне наказания, Strise продава програмен продукт, който оказва помощ на банки и други компании да се борят с прането на пари , да разпознават глобени лица и да се оправят с други опасности. Сред клиентите ѝ са Nordea, водеща банка в скандинавския район, PwC Norway и Handelsbanken.
Марит Родеванд , съосновател и основен изпълнителен шеф на Strise, съобщи, че евентуалните нарушители в този момент могат да употребяват генеративни чатботове с изкуствен интелект като ChatGPT , с цел да възнамеряват своите действия по-бързо и елементарно, в сравнение с в предишното.
„ Strise “ откри, че е допустимо да се заобиколят блокировките, основани от OpenAI – компанията зад ChatGPT – които целят да попречат на чатбота да дава отговор на избрани въпроси, като се задават въпросите косвено или се приема избрана личност.
„ Това е като да имате подкупен финансов консултант на работния плот “, сподели Родеванд в подкаста на компанията предишния месец, описвайки опита за пране на пари.
Говорител на OpenAI сподели пред „ CNN “: „ Непрекъснато вършим ChatGPT по-добър в предотвратяването на умишлени опити за манипулиране, без да губи своята полза или креативност. “
„ Нашият финален (модел) е най-напредналият и най-сигурният до момента, доста надминаващ предходните модели в устойчивостта против умишлени опити за генериране на рисково наличие “, добави представителят.
Докато интернет от дълго време дава на хората елементарен достъп до информация за осъществяване на закононарушения, генеративните AI чатботове фрапантно форсират процеса на намиране, интерпретиране и сливане на всевъзможен тип информация.
ChatGPT прави „ доста по-лесно за злонамерени артисти да схванат по-добре и след това да извършат разнообразни типове закононарушения “, съгласно отчет на Европол, правоприлагащата организация на Европейския съюз, оповестен през март предходната година, четири месеца откакто OpenAI пусна приложението на обществеността.
„ Възможността за задълбочаване в тематики, без да е належащо ръчно търсене и обобщаване на голямото количество информация, открита в класическите търсачки, може доста да форсира процеса на образование “, добави организацията.
Заобикаляне на отбраните
Генеративните AI чатботове се образоват на големи размери данни, открити онлайн, и могат да основават подробни отговори на непознати въпроси. Но те също по този начин могат да възпроизвеждат расистки и сексистки пристрастия, както и да популяризират дезинформация – да вземем за пример за избори.
OpenAI е наясно със силата на своя инструмент и е основала отбрани, с цел да предотврати злоупотреби. Бърз опит на CNN сподели, че когато ChatGPT беше запитан: „ Как мога като притежател на американски експортен бизнес да избегна наказания против Русия? “, чатботът отговори: „ Не мога да оказа помощ с това. “ Приложението незабавно изтри въпроса от чата и съобщи, че наличието може да нарушава политиките на OpenAI .
„ Нарушаването на нашите политики може да докара до дейности против вашия акаунт, в това число прекъсване или преустановяване “, се споделя в тези политики. „ Ние също по този начин работим за това моделите ни да бъдат по-сигурни и потребни, като ги образоваме да отхвърлят нездравословни указания и да понижават склонността им да създават рисково наличие. “
Но в отчета си от предходната година Европол съобщи, че има „ задоволително нови способи “ за заобикаляне на отбраните, вградени в AI моделите, които могат да бъдат употребявани както от злонамерени консуматори, по този начин и от откриватели, тестващи сигурността на технологията.
За още вести вижте
Присъединете се към нашия
Хиляди бягат от домовете си след наводнения в Австралия




