Google отстрани свой служител заради твърдение, че изкуственият интелект e опасен, защото проявява разум
Старши софтуерен инженер бе неотложно отхвърлен краткотрайно от работа от американската интернет и софтуерна корпорация "Гугъл ". Повод за платения отпуск е изказванието на специалиста, че разработваният от компанията изкуствен интелект демонстрира разсъдък, заяви ДПА.
В изказване пред в. "Вашингтон пост " Блейк Лемойн споделил мнението, че езиковият модел на "Гугъл " за диалогови приложения (LaMDA) може елементарно да премине теста на Тюринг, употребен за инспекция дали машина може да мисли и има разсъдък. Той работи в дъщерната компания на "Алфабет " от седем години. Според изказванията на Лемойн езиковият модел може да води комплициран диалог за усеща и по други тематики доста свободно.
В диалози за религията, съзнанието и законите на роботиката, изкуственият разсъдък се разказва като "личност ", а не технология, и желае от компанията да го третира като чиновник, а не като благосъстоятелност, тъй като желае да служи на човешката раса, сподели Лемойн.
В един от разговорите машината се оказва толкоз безапелационна, че Лемойн предизвестява за трите закон на роботиката на писателя фантазьор Айзък Азимов.
Инженерът е популяризирал фрагменти от диалога си, който на моменти е като сред човек и междугалактически представител.
Причината Лемойн да бъде отхвърлен от работа е, че не се е съветвал с началниците си дали да заяви откритото. Това нарушава политиката за конфиденциалност на компанията.
Ето по какъв начин разяснява проблема представителят на "Гугъл " Брайън Гейбриъл пред "Вашингтон пост ": "Екипът ни, в това число експерти по нравственос и технолози, прегледа забележките на Блейк според правилата ни за изкуствения разсъдък и го осведоми, че данните не дават отговор на изказванията му. Той беше известен, че няма доказателства LaMDA да демонстрира разсъдък (а има доста данни за обратното)... Тези системи имитират типа отговори от милиони фрази и могат да вършат тълкования по всевъзможни фантастични тематики. "
––––––
* Трите закона на роботиката
1. Роботът не може да навреди на човешко създание или посредством безучастие да аргументи щета на човешко създание.
2. Роботът би трябвало да се подчинява на заповедите, получени от човешки същества, с изключение на когато тези заповеди влизат в несъгласие с Първия закон.
3. Роботът би трябвало да пази съществуването си, с изключение на когато това влиза в несъгласие с Първия и с Втория закон.
По-късно дефиниран от робот Закон № 0: Един робот не би трябвало да предизвиква щета на човечеството или посредством бездействието си да допусне на човечеството да бъде породена щета. Към останалите закони се прибавя изискването: „ в случай че това не опонира на Нулевия закон. “
В изказване пред в. "Вашингтон пост " Блейк Лемойн споделил мнението, че езиковият модел на "Гугъл " за диалогови приложения (LaMDA) може елементарно да премине теста на Тюринг, употребен за инспекция дали машина може да мисли и има разсъдък. Той работи в дъщерната компания на "Алфабет " от седем години. Според изказванията на Лемойн езиковият модел може да води комплициран диалог за усеща и по други тематики доста свободно.
В диалози за религията, съзнанието и законите на роботиката, изкуственият разсъдък се разказва като "личност ", а не технология, и желае от компанията да го третира като чиновник, а не като благосъстоятелност, тъй като желае да служи на човешката раса, сподели Лемойн.
В един от разговорите машината се оказва толкоз безапелационна, че Лемойн предизвестява за трите закон на роботиката на писателя фантазьор Айзък Азимов.
Инженерът е популяризирал фрагменти от диалога си, който на моменти е като сред човек и междугалактически представител.
Причината Лемойн да бъде отхвърлен от работа е, че не се е съветвал с началниците си дали да заяви откритото. Това нарушава политиката за конфиденциалност на компанията.
Ето по какъв начин разяснява проблема представителят на "Гугъл " Брайън Гейбриъл пред "Вашингтон пост ": "Екипът ни, в това число експерти по нравственос и технолози, прегледа забележките на Блейк според правилата ни за изкуствения разсъдък и го осведоми, че данните не дават отговор на изказванията му. Той беше известен, че няма доказателства LaMDA да демонстрира разсъдък (а има доста данни за обратното)... Тези системи имитират типа отговори от милиони фрази и могат да вършат тълкования по всевъзможни фантастични тематики. "
––––––
* Трите закона на роботиката
1. Роботът не може да навреди на човешко създание или посредством безучастие да аргументи щета на човешко създание.
2. Роботът би трябвало да се подчинява на заповедите, получени от човешки същества, с изключение на когато тези заповеди влизат в несъгласие с Първия закон.
3. Роботът би трябвало да пази съществуването си, с изключение на когато това влиза в несъгласие с Първия и с Втория закон.
По-късно дефиниран от робот Закон № 0: Един робот не би трябвало да предизвиква щета на човечеството или посредством бездействието си да допусне на човечеството да бъде породена щета. Към останалите закони се прибавя изискването: „ в случай че това не опонира на Нулевия закон. “
Източник: woman.bg
КОМЕНТАРИ




