Малко повече от половин година по-късно въпросът не е какво

...
Малко повече от половин година по-късно въпросът не е какво
Коментари Харесай

Защо не трябва да споделяме на ChatGPT лични или служебни тайни

Малко повече от половин година по-късно въпросът не е какво знаем за ChatGPT, а какво знае той за нас. Чат ботът с изкуствен интелект стана най-бързо набиращото известност приложение в историята - милиони хора всеки ден го питат защо ли не: предписания, информации, хрумвания, юридически или механически проблеми. И той дава отговор... само че и помни.

Все повече стават фирмите, които не разрешават на чиновниците си да употребяват ChatGPT за работа поради опасения от приключване на информация - Samsung, Apple, JPMorgan, Citigroup и още доста. За малко платформата не работеше в Италия поради следствие на локалните управляващи за метода, по който се събира, обработва и съхранява персоналната информация. Защо е цялото това терзание?
 Заплаха за националната сигурност? Съединени американски щати желаят да контролират изкуствения разсъдък
Заплаха за националната сигурност? Съединени американски щати желаят да контролират изкуствения разсъдък

Бързата инвазия на технологиите тормози администрацията на Джо Байдън

Контекст : В ChatGPT няма нищо божествено. Това е набор от логаритми, подготвени на големи масиви от информация, благодарение на които основават логичен съгласно авансово заложени критерии текст като отговор на потребителските задачи.

Когато приказваме за текстове, съдържащи съвсем цялото непокътнато документално слово в света, имаме напълно действителен риск от попадане измежду тях на информация, чието място не е там. Освен това, обаче, и ние самите можем да се окажем в състояние да зареждаме изкуствения разсъдък с неща, които не трябва да знае.
 Какво съставлява Законът на Европейски Съюз за изкуствения разсъдък и от какво ще ни пази
Какво съставлява Законът на Европейски Съюз за изкуствения разсъдък и от какво ще ни пази

Опасни ли са новите технологии?

Детайли : Има няколко съществени закани за поверителната информация, когато тя бъде споделена с ChatGPT:
Разговорите се употребяват за обучаване на модела - това е един от най-главните проблеми. Ако питате бота за доста съответни проблеми и дадете сериозен подтекст, има огромна възможност обстоятелствата от тази сказка по-късно да се окажат част от набора от отговори на ChatGPT. Не е изключено по този начин някой да попадне на ваша персонална или служебна информация инцидентно, само че също така всеки хакер с умения в общественото инженерство ще се пробва да " разпита " AI, с цел да го подведе да показа информацията, която към този момент сте му споделили. Ако пък моделът е публичен, дори ще е задоволително да разполага с задоволително мощен хардуер, с цел да откри това, което търси. Какво ще стане, в случай че хакер или вътрешен човек " завземе " ChatGPT - връзката ви се съхранява на сървърите на компания, която, сходно на всички останали, е уязвима. Всъщност, през март тази година OpenAI трябваше бързо да поправят неточност в кода, която даваше неоторизиран достъп до непознати диалози с ChatGPT. Служителите на компанията имат достъп до системите, също както и някои външни подизпълнители. Никога не може да се изключи злонамерено деяние от страна на вътрешен човек.
В прав текст : " Най-добре е да приемете, че всеки по света може да прочете това, което сте написали някъде в интернет - имейли, блогове, обществени мрежи, AI платформи. Не публикувайте нищо, което не желаете да бъде прочетено ", разяснява пред Mashable специалистът проф. Гари Смит.
 Изкуственият разсъдък на Microsoft бърка данни, години и обстоятелства
Ще се спука ли AI балонът: Новият чат бот на Microsoft прави фрапантни неточности

Софтуерният инженер Дмитри Бреретон откри съществени дефекти още в демонстрацията на AI търсачката на Bing

Иначе казано, не споделяйте с бота нищо, което не бихте споделили в компанията на група непознати. И не забравяйте, че това не е инструмент като Excel - тук всяка единица ваши данни отива някъде другаде и по-късно се употребява с цели, които не постоянно са ясни. Затова и резюмирането на протоколи от поверителни срещи и търсенето на проблеми в кода на значима нова функционалност не са места, където да употребявате AI.

Какво можете да извършите: Някои от кардиналните проблеми на AI платформите могат да се решат единствено тогава, когато работите локално с езиковия модел и имате цялостен надзор. Това с ChatGPT към момента не е допустимо, само че най-малко можете да го спрете да употребява диалозите, с цел да се самообучава.

Това става през настройката Chat History & Training. Така обаче губите историята на диалозите си, а също така информацията продължава да се пази на сървърите на OpenAI за 30 дни и то - неразбираемо по какъв начин.
Източник: money.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР