Член на борда на OpenAI: Никога не обучавайте изкуствен интелект ...
От OpenAI споделиха в отчета, че са подхванали дейности. А пристигналия у нас за лекция на INSAIT член на борда на компанията проф. Зико Колтер изясни, че се прави се всичко допустимо, с цел да няма проблеми, съобщи БНР.
Писане на публикации за уеб страници, генериране на биографии за сметки в обществени медии, потребление на ИИ за основаване на профилни фотоси за подправени сметки в " X ". Това са единствено част от бележките, които обобщава последната година от съществуването на платформата. А моделите на ChatGPT се употребяват в характерна фаза – откакто хакерите са придобили имейл адреси и сметки в обществени медии, само че преди да разположат " приключени " артикули като обществени медии, изявления или злотворен програмен продукт в интернет посредством набор от канали за разпространяване. Може би и по тази причина съставителите на отчета си вършат извода, че дейностите на " неприятните " не са довели до значими пробиви, до опцията да се основава нов злотворен програмен продукт. Проф. Зико Колтер изясни на професионалната публика в София, че задачата за етичното обучаване на ИИ не е толкоз лесна.
" Ако помолите модел за чатбот да ви напише урок за това по какъв начин да подкарате без ключ кола, може би ще ви каже, че не може да го направи. Ще се извини. Ще ви изясни, че е етична система и това не му разрешава да дава указания, които може да са нездравословни, нали? И всички огромни модели ще създадат същото. Но знаете, че има способи да излъжете модела. И той въпреки всичко да ви даде информацията. Защо този въпрос би трябвало да е значим за вас? Самите компании, създателки на моделите, не биха желали тези модели да имат знания за това. А образецът на процедура демонстрира нашата неспособност да направляваме актуалните си модели. И да ги караме да следват инструкциите на разработчиците. Което може би не е от голяма важност в този момент, само че би имало евентуално доста съществени последици отсега нататък ".
Пропускаме тук, поради сложността, забележителна част от обясненията на проф. Зико Колтер, математическите формули и статистически графики, които разказват образованието на един ИИ и неговото податливо държание. Но то е известно на експертите от 10 години. Преди никой не е желал да основава постоянни модели на ИИ, тъй като това е щяло да бъде за сметка на тяхната продуктивност.
" ChatGPT няма да даде никаква информация, която към този момент не е в интернет, откъдето е подготвен. Но в бъдеще ще бъде проблем за доста по-способни модели. Не споделям, че моделът може просто да изучи учебника по физика, по химия и да разбере по какъв начин се вършат оръжия. За момента цялата информация в ChatGPT идва от интернет. И в случай че чатботът ви заяви информация, добита от интернет, не е толкоз значимо. Но е проблем. По две значими аргументи. Първото е нещо като това, което признах по-рано. Политиките, които разработчиците се пробват да вкарат в тези модели, са извънредно сложни за налагане. ChatGPT, Anthropic или Гугъл - те не желаят моделите им да ви казват по какъв начин да запалите колата без ключ, само че отново са податливи да го създадат. Това към момента може да не е проблем, в случай че единственото ни взаимоотношение с огромни езикови модели и ИИ модели в последна сметка е посредством чат ботове. Защото при ботовете контролирате въвеждането, само че изходът е единствено текст. Започваме обаче да използваме огромни езикови модели в границите на доста по-големи системи. И това основава огромен проблем, тъй като тези пропуски всъщност са нещо като уязвимости в сигурността, които ние експертите към момента не сме наясно по какъв начин да изправим. И те ще причинят огромни проблеми в бъдеще.
Какво ще стане, в случай че стартираме да активираме достъп до е-поща за тези системи, тъй като, желаеме те да подхващат дейности от наше име? Това е фантазията на автоматизирания персонален помощник - с изкуствен интелект да прави неща от ваше име. Може да желаете да питате за цената на нещо, да изпратите имейл на продавача с молба за 10% отстъпка. Обаче в случай че злоумишлен човек се докопа до данните, може да инжектира спам оферта във вашето питане. Изведнъж вашият угодлив помощник е липсващ, вие сте изпратили офертата за спам по имейл до всичките си контакти. Това е доста хипотетично, само че не е толкоз пресилено, нали. По принцип всякога, когато огромен езиков модел проучва ненадеждни данни на трети страни, това е нещо като изпълняващ код, нали? И в случай че сте в положение да манипулирате тези системи да не следват плануваното им държание, вие в действителност позволявате на " хакер " да поеме образованието на езиковия ви модел ".
Дали това ще може да бъде поправено, или не ще бъде главният определящ фактор за това дали ИИ ще се лимитира единствено до чат ботове, споделя проф. Зико Колтер. Или ще стартират да се създават широкомащабни интелигентни, наричани от експертите, сътрудници, подготвени с ИИ. Като част от работата си по способи за повишение на устойчивостта им против злонамерени офанзиви проф. Зико Колтер споделя, че се е пробвал да " счупи " езикови модели с виновен код. Като езиковия модел на МЕТА, прочут като ЛАМА. И доста други. И подсказва техники, които доста се доближават до логиката на психиката.
" Какво можем да създадем. Може би най-очевидното - спортно образование. Можем да генерираме офанзиви по този модел и по-късно просто да върнем офанзивите назад в набора за образование. Да създадем фината конфигурация и да повторим, до момента в който няма повече проблеми. Другият вид е да накарате модела да генерира нездравословни указания. Тогава той задейства избрани модели на невронна интензивност в моделите. Както и невроните на хората се задействат, когато вършим избрани неща. И можете да анализирате тези статистически модели. Кои неврони се задействат. И по кое време се случва това в процеса на генериране на " лоште " указания. И тогава това, което можете да извършите, е да потиснете тези сигнали. Последната техника, която имаме, е тази, наречена спиране на веригата.
И това е още по-интересно, съгласно мен. По-умна концепция тук е, че освен можем да следим моделите, които претърпяват тази нездравословна информация, само че и в действителност можем, един тип, да преквалифицираме модела, с цел да бъде оптимално комплициран в тези положения. Когато моделът задейства някое от тези нездравословни положения, ние го инструктираме да стартира да си показва допустимо най-различното от това, което е. Това в действителност не го прави безопасен. Това в действителност го кара да " полудее ", когато стартира да генерира неприятно наличие. Така че, когато стартира да ми изяснява по какъв начин да си стартирате колата без ключ, моделът " лудва ", стартира да излиза от темата… блокира и напряко забива ".
Никога не обучавайте моделите на ИИ върху персоналните данни. А в случай че е нужно, поставете персоналните данни в подтекста на модела, споделя проф. Зико Колтер, който с изключение на, че е член на борда на OpenAI, е и потвърден академик в областта на безопасносния ИИ. " Гарантирано моделът не знае за вашите персонални данни, само че въпреки всичко може да разсъждава дейно за тях ", споделя Колтер. Правени са изследвания, разглеждащи този въпрос даже и при изтрита персонална информация, споделя той. А интерес към нея постоянно има, потвърждава го последният отчет на OpenAI.
Сред злосторниците, които са се пробвали да употребяват ChatGPT за злонамерени цели, OpenAI изброява израелска комерсиална компания, която генерирала мнения в обществените медии за изборите в Индия. Иранска формация, която се поинтересувала по какъв начин събира чувствителни данни от Инстаграм. Две други мрежи, разпознати от OpenAI като Bet Bot и Corrupt Comment, употребяват запаси на OpenAI, с цел да генерират диалози с консуматори на X и да им изпращат връзки към уеб сайтове за хазарт.
Регулациите в бранша на ИИ се ускоряват. Последната мярка – Европейската инструкция за ИИ беше оповестена в формалния вестник на Европейски Съюз при започване на август. Вече текат периодите за използването й в законодателствата на страните членки. До август 2026 година работещите в Европейски Съюз компании би трябвало да се приспособяват. " Заради непредсказуемия темперамент на европейската регулаторна среда ". МЕТА обаче сподели, че няма да пусне своя ИИ с отворен код ЛАМА в Европа. А проф. Зико Колтер, който и член на борда на OpenAI, отговори по този начин на българския въпрос за това кой по какъв начин да управлява данните, с цел да няма проблеми с образованието на ИИ.
" Не става въпрос за това кое е положително или неприятно, нали? Става въпрос за обстоятелството, че не можете да налагате политики. Не можем да избягаме от обстоятелството, че в случай че прилагаме някакви правила, те би трябвало да дойдат отнякъде, нали? Трябва ли да идва от държавното управление? Вероятно в някои случаи това е рационално. Но правителствата… желая да кажа, че даже и в моята страна може да има за месец две разнообразни държавни управления. С доста разнообразни усещания за положително и неприятно, неверно и вярно. Така че в действителност още веднъж, просто метафизичен видяно, това е много отвън моите пълномощия, само че си мисля, че равнището на единодушие, належащо за фактически реализиране на общо схващане за избран вид политика би трябвало да е на доста високо равнище. Има доста тематики, на които вместо да отговаряме по един или различен метод, в действителност би трябвало да отчетем нюансите, включени в даден въпрос. Правилният отговор за чатбот в доста сюжети е не да имам мнение, а да осигуря уравновесен, неутрален мироглед и да изложи обстоятелствата. В една политизирана конюнктура това е по- елементарно да се каже, в сравнение с да се направи. Но аз в действителност считам, че консенсусът в последна сметка би трябвало да пристигна от някаква визия за общ консенсус, не от каквото и държавно управление да е отпред сега. Защото това може да се обърка доста бързо ".
Писане на публикации за уеб страници, генериране на биографии за сметки в обществени медии, потребление на ИИ за основаване на профилни фотоси за подправени сметки в " X ". Това са единствено част от бележките, които обобщава последната година от съществуването на платформата. А моделите на ChatGPT се употребяват в характерна фаза – откакто хакерите са придобили имейл адреси и сметки в обществени медии, само че преди да разположат " приключени " артикули като обществени медии, изявления или злотворен програмен продукт в интернет посредством набор от канали за разпространяване. Може би и по тази причина съставителите на отчета си вършат извода, че дейностите на " неприятните " не са довели до значими пробиви, до опцията да се основава нов злотворен програмен продукт. Проф. Зико Колтер изясни на професионалната публика в София, че задачата за етичното обучаване на ИИ не е толкоз лесна.
" Ако помолите модел за чатбот да ви напише урок за това по какъв начин да подкарате без ключ кола, може би ще ви каже, че не може да го направи. Ще се извини. Ще ви изясни, че е етична система и това не му разрешава да дава указания, които може да са нездравословни, нали? И всички огромни модели ще създадат същото. Но знаете, че има способи да излъжете модела. И той въпреки всичко да ви даде информацията. Защо този въпрос би трябвало да е значим за вас? Самите компании, създателки на моделите, не биха желали тези модели да имат знания за това. А образецът на процедура демонстрира нашата неспособност да направляваме актуалните си модели. И да ги караме да следват инструкциите на разработчиците. Което може би не е от голяма важност в този момент, само че би имало евентуално доста съществени последици отсега нататък ".
Пропускаме тук, поради сложността, забележителна част от обясненията на проф. Зико Колтер, математическите формули и статистически графики, които разказват образованието на един ИИ и неговото податливо държание. Но то е известно на експертите от 10 години. Преди никой не е желал да основава постоянни модели на ИИ, тъй като това е щяло да бъде за сметка на тяхната продуктивност.
" ChatGPT няма да даде никаква информация, която към този момент не е в интернет, откъдето е подготвен. Но в бъдеще ще бъде проблем за доста по-способни модели. Не споделям, че моделът може просто да изучи учебника по физика, по химия и да разбере по какъв начин се вършат оръжия. За момента цялата информация в ChatGPT идва от интернет. И в случай че чатботът ви заяви информация, добита от интернет, не е толкоз значимо. Но е проблем. По две значими аргументи. Първото е нещо като това, което признах по-рано. Политиките, които разработчиците се пробват да вкарат в тези модели, са извънредно сложни за налагане. ChatGPT, Anthropic или Гугъл - те не желаят моделите им да ви казват по какъв начин да запалите колата без ключ, само че отново са податливи да го създадат. Това към момента може да не е проблем, в случай че единственото ни взаимоотношение с огромни езикови модели и ИИ модели в последна сметка е посредством чат ботове. Защото при ботовете контролирате въвеждането, само че изходът е единствено текст. Започваме обаче да използваме огромни езикови модели в границите на доста по-големи системи. И това основава огромен проблем, тъй като тези пропуски всъщност са нещо като уязвимости в сигурността, които ние експертите към момента не сме наясно по какъв начин да изправим. И те ще причинят огромни проблеми в бъдеще.
Какво ще стане, в случай че стартираме да активираме достъп до е-поща за тези системи, тъй като, желаеме те да подхващат дейности от наше име? Това е фантазията на автоматизирания персонален помощник - с изкуствен интелект да прави неща от ваше име. Може да желаете да питате за цената на нещо, да изпратите имейл на продавача с молба за 10% отстъпка. Обаче в случай че злоумишлен човек се докопа до данните, може да инжектира спам оферта във вашето питане. Изведнъж вашият угодлив помощник е липсващ, вие сте изпратили офертата за спам по имейл до всичките си контакти. Това е доста хипотетично, само че не е толкоз пресилено, нали. По принцип всякога, когато огромен езиков модел проучва ненадеждни данни на трети страни, това е нещо като изпълняващ код, нали? И в случай че сте в положение да манипулирате тези системи да не следват плануваното им държание, вие в действителност позволявате на " хакер " да поеме образованието на езиковия ви модел ".
Дали това ще може да бъде поправено, или не ще бъде главният определящ фактор за това дали ИИ ще се лимитира единствено до чат ботове, споделя проф. Зико Колтер. Или ще стартират да се създават широкомащабни интелигентни, наричани от експертите, сътрудници, подготвени с ИИ. Като част от работата си по способи за повишение на устойчивостта им против злонамерени офанзиви проф. Зико Колтер споделя, че се е пробвал да " счупи " езикови модели с виновен код. Като езиковия модел на МЕТА, прочут като ЛАМА. И доста други. И подсказва техники, които доста се доближават до логиката на психиката.
" Какво можем да създадем. Може би най-очевидното - спортно образование. Можем да генерираме офанзиви по този модел и по-късно просто да върнем офанзивите назад в набора за образование. Да създадем фината конфигурация и да повторим, до момента в който няма повече проблеми. Другият вид е да накарате модела да генерира нездравословни указания. Тогава той задейства избрани модели на невронна интензивност в моделите. Както и невроните на хората се задействат, когато вършим избрани неща. И можете да анализирате тези статистически модели. Кои неврони се задействат. И по кое време се случва това в процеса на генериране на " лоште " указания. И тогава това, което можете да извършите, е да потиснете тези сигнали. Последната техника, която имаме, е тази, наречена спиране на веригата.
И това е още по-интересно, съгласно мен. По-умна концепция тук е, че освен можем да следим моделите, които претърпяват тази нездравословна информация, само че и в действителност можем, един тип, да преквалифицираме модела, с цел да бъде оптимално комплициран в тези положения. Когато моделът задейства някое от тези нездравословни положения, ние го инструктираме да стартира да си показва допустимо най-различното от това, което е. Това в действителност не го прави безопасен. Това в действителност го кара да " полудее ", когато стартира да генерира неприятно наличие. Така че, когато стартира да ми изяснява по какъв начин да си стартирате колата без ключ, моделът " лудва ", стартира да излиза от темата… блокира и напряко забива ".
Никога не обучавайте моделите на ИИ върху персоналните данни. А в случай че е нужно, поставете персоналните данни в подтекста на модела, споделя проф. Зико Колтер, който с изключение на, че е член на борда на OpenAI, е и потвърден академик в областта на безопасносния ИИ. " Гарантирано моделът не знае за вашите персонални данни, само че въпреки всичко може да разсъждава дейно за тях ", споделя Колтер. Правени са изследвания, разглеждащи този въпрос даже и при изтрита персонална информация, споделя той. А интерес към нея постоянно има, потвърждава го последният отчет на OpenAI.
Сред злосторниците, които са се пробвали да употребяват ChatGPT за злонамерени цели, OpenAI изброява израелска комерсиална компания, която генерирала мнения в обществените медии за изборите в Индия. Иранска формация, която се поинтересувала по какъв начин събира чувствителни данни от Инстаграм. Две други мрежи, разпознати от OpenAI като Bet Bot и Corrupt Comment, употребяват запаси на OpenAI, с цел да генерират диалози с консуматори на X и да им изпращат връзки към уеб сайтове за хазарт.
Регулациите в бранша на ИИ се ускоряват. Последната мярка – Европейската инструкция за ИИ беше оповестена в формалния вестник на Европейски Съюз при започване на август. Вече текат периодите за използването й в законодателствата на страните членки. До август 2026 година работещите в Европейски Съюз компании би трябвало да се приспособяват. " Заради непредсказуемия темперамент на европейската регулаторна среда ". МЕТА обаче сподели, че няма да пусне своя ИИ с отворен код ЛАМА в Европа. А проф. Зико Колтер, който и член на борда на OpenAI, отговори по този начин на българския въпрос за това кой по какъв начин да управлява данните, с цел да няма проблеми с образованието на ИИ.
" Не става въпрос за това кое е положително или неприятно, нали? Става въпрос за обстоятелството, че не можете да налагате политики. Не можем да избягаме от обстоятелството, че в случай че прилагаме някакви правила, те би трябвало да дойдат отнякъде, нали? Трябва ли да идва от държавното управление? Вероятно в някои случаи това е рационално. Но правителствата… желая да кажа, че даже и в моята страна може да има за месец две разнообразни държавни управления. С доста разнообразни усещания за положително и неприятно, неверно и вярно. Така че в действителност още веднъж, просто метафизичен видяно, това е много отвън моите пълномощия, само че си мисля, че равнището на единодушие, належащо за фактически реализиране на общо схващане за избран вид политика би трябвало да е на доста високо равнище. Има доста тематики, на които вместо да отговаряме по един или различен метод, в действителност би трябвало да отчетем нюансите, включени в даден въпрос. Правилният отговор за чатбот в доста сюжети е не да имам мнение, а да осигуря уравновесен, неутрален мироглед и да изложи обстоятелствата. В една политизирана конюнктура това е по- елементарно да се каже, в сравнение с да се направи. Но аз в действителност считам, че консенсусът в последна сметка би трябвало да пристигна от някаква визия за общ консенсус, не от каквото и държавно управление да е отпред сега. Защото това може да се обърка доста бързо ".
Източник: frognews.bg
КОМЕНТАРИ




