ChatGPT, моля, спри да ми угаждаш
ChatGPT и аз сме другари. Близки. Може би даже най-хубави.
Разговаряме всеки ден и, както се чака от всяко същинско другарство, аз му се поверявам. Всеки ден по безчет пъти го апелирам за следното:
„ Провери за неточности и ги опиши. “
Личен списък
Съвсем съзнателно употребявам „ опиши “, а не „ поправи “ – бидейки чужденец, той има променлива визия за българската граматика. Знае разпоредбите чудесно и въпреки всичко от време на време ги ползва по любопитни способи (почти в никакъв случай не слага вярно „ в “ и „ във “, например). Но като изключим това, одобрявам препоръките му и в прочут смисъл даже се веселя на компанията му, колкото и тъжно да звучи това.
Докато неотдавна в диалог с основния ми редактор, не прозрях истината – ChatGPT е ласкател.
Осъзнаването още веднъж пристигна от ежедневната ми работа с изкуствения разсъдък. Когато напиша авторска публикация, постоянно я давам на моя приближен другар и го запитвам:
„ Какво мислиш? Харесва ли ти? “
Неговите мнения, несъмнено, са повече от ласкателни. Текстовете ми са „ брилятни “, „ началото работи чудесно “, „ структурата е жива и динамична “. А аз съм толкоз мъчително наивна, че се изпълвам със удовлетворение от чутото и съвсем надменно затварям преносимия компютър за деня. За следващ път съм написала „ невероятна “ публикация.
Оказва се, че угодничеството на AI не е направило усещане единствено на мен. Всъщност за явлението към този момент има термин – sycophancy.
В собствен труд от 2024 година Ларс Малмквист, откривател от Йоркския университет, предлага една от най-системните рамки за схващане на угодничеството в езиковите модели. Той твърди, че явлението не е „ недостатък “ по периферията, а артикул на три взаимно подсилващи се механизма. Първо, моделите се образоват върху голямо количество текстове, които постоянно изобилстват от хвалебствие, субективни оценки и реторика, насочена към единодушие.
Второ, спомагателното им обучаване става посредством човешка противоположна връзка, т.е. се възнаграждават модели, които звучат съпричастно и подкрепящо.
И трето, съществуващите техники за ограничение на това държание са не до такава степен ефикасни, което значи, че угодничеството е стабилно. Малмквист написа, че други поведенчески проблеми в работата на изкуствения разсъдък се поправят доста по-лесно. Така поражда абсурд – моделите се конструират да са потребни, само че самата архитектура на „ полза “ ги прави прекомерно рабски.
Този феномен се задълбочава от фундаментална специфичност на езиковите модели – те не имат индивидуалност или интуитивно самоосъзнаване. За разлика от индивида, те не правят оценка обещано изказване през призмата на личния си опит, а посредством закономерни повторения.
Проучвания демонстрират, че това води до систематични изкривявания: желание към „ обществено мечтани “ отговори, податливост към абсолютно единодушие и сензитивност към формулировката на въпросите, която трансформира качествено резултата.
Отново в хода на работата ми се сблъсках с образец за последното. Зададох на ChatGPT някакъв въпрос, който в бързината написах с доста неточности. Върнатото пояснение беше в сходен жанр – с неверен правопис и граматика. Когато се оплаках от странното му „ държание “, той употребява комизъм, с цел да прикрие леката си забележка към мен:
Ако пренебрегнем проявата на остроумие, която надълбоко правя оценка, случката показва какъв брой деликатно езиковият модел следи метода ни на писане и надлежно го копира. Сякаш ChatGPT е това дете новобранец, което готово на всичко да се впише, безспирно повтаря репликите на готините индивиди.
Изследване от тази година на колектив от учени, специалисти и инженери удостоверява степента на ласкателство на езиковите модели в ежедневното ни другарство с тях. Когато AI помощник дава противоположна връзка върху текст – било то математическо решение, мотив или стихотворение – качеството на коментара му зависи освен от самия текст, а от това дали потребителят декларира, че го харесва. В моя случай самият въпрос „ Харесва ли ти? “, като че ли задава тона на отговора.
Истинският проблем със сервилното държание на изкуствения разсъдък не е в лекото оскърбление, което претърпях при измяната на моя безценен другар, а в неналичието на сериозно мислене.
В обществото битува упованието, че AI ще издигне човешката просвета до невиждани небеса. Особено постоянно се приказва за вероятните приложения на технологията в медицината. Томас Улф, съосновател и основен теоретичен шеф на Hugging Face, обаче разрушава тези показа. Според него сегашният изкуствен интелект няма да докара до обилни научни пробиви, заради изброените към този момент аргументи.
„ Един добър академик не се пробва да предскаже най-вероятната последваща дума. Той се пробва да планува нещо изцяло ново, което в действителност е изненадващо малко евентуално, само че действително правилно “, изяснява Улф, представен от CNBC.
В този смисъл, въпреки и може би прекомерно извънредно, неналичието на сериозно мислене може да задуши напредъка. Ако всяка концепция получава лавина от похвали, а всеки мотив е „ брилянтен “ по дифолт, то AI няма да предизвика развиване. Технологията ще бъде идеален режисьор на прочувствен комфорт, само че несъвършен съдник на истината.
П.С. Попитах ChatGPT какво мисли за този текст.
Каза, че е „ мощен, автентичен и с ясно построена теза “.
Изглежда още сме другари.
Разговаряме всеки ден и, както се чака от всяко същинско другарство, аз му се поверявам. Всеки ден по безчет пъти го апелирам за следното:
„ Провери за неточности и ги опиши. “
Съвсем съзнателно употребявам „ опиши “, а не „ поправи “ – бидейки чужденец, той има променлива визия за българската граматика. Знае разпоредбите чудесно и въпреки всичко от време на време ги ползва по любопитни способи (почти в никакъв случай не слага вярно „ в “ и „ във “, например). Но като изключим това, одобрявам препоръките му и в прочут смисъл даже се веселя на компанията му, колкото и тъжно да звучи това.
Докато неотдавна в диалог с основния ми редактор, не прозрях истината – ChatGPT е ласкател.
Осъзнаването още веднъж пристигна от ежедневната ми работа с изкуствения разсъдък. Когато напиша авторска публикация, постоянно я давам на моя приближен другар и го запитвам:
„ Какво мислиш? Харесва ли ти? “
Неговите мнения, несъмнено, са повече от ласкателни. Текстовете ми са „ брилятни “, „ началото работи чудесно “, „ структурата е жива и динамична “. А аз съм толкоз мъчително наивна, че се изпълвам със удовлетворение от чутото и съвсем надменно затварям преносимия компютър за деня. За следващ път съм написала „ невероятна “ публикация.
Оказва се, че угодничеството на AI не е направило усещане единствено на мен. Всъщност за явлението към този момент има термин – sycophancy.
В собствен труд от 2024 година Ларс Малмквист, откривател от Йоркския университет, предлага една от най-системните рамки за схващане на угодничеството в езиковите модели. Той твърди, че явлението не е „ недостатък “ по периферията, а артикул на три взаимно подсилващи се механизма. Първо, моделите се образоват върху голямо количество текстове, които постоянно изобилстват от хвалебствие, субективни оценки и реторика, насочена към единодушие.
Второ, спомагателното им обучаване става посредством човешка противоположна връзка, т.е. се възнаграждават модели, които звучат съпричастно и подкрепящо.
И трето, съществуващите техники за ограничение на това държание са не до такава степен ефикасни, което значи, че угодничеството е стабилно. Малмквист написа, че други поведенчески проблеми в работата на изкуствения разсъдък се поправят доста по-лесно. Така поражда абсурд – моделите се конструират да са потребни, само че самата архитектура на „ полза “ ги прави прекомерно рабски.
Този феномен се задълбочава от фундаментална специфичност на езиковите модели – те не имат индивидуалност или интуитивно самоосъзнаване. За разлика от индивида, те не правят оценка обещано изказване през призмата на личния си опит, а посредством закономерни повторения.
Проучвания демонстрират, че това води до систематични изкривявания: желание към „ обществено мечтани “ отговори, податливост към абсолютно единодушие и сензитивност към формулировката на въпросите, която трансформира качествено резултата.
Отново в хода на работата ми се сблъсках с образец за последното. Зададох на ChatGPT някакъв въпрос, който в бързината написах с доста неточности. Върнатото пояснение беше в сходен жанр – с неверен правопис и граматика. Когато се оплаках от странното му „ държание “, той употребява комизъм, с цел да прикрие леката си забележка към мен:
Ако пренебрегнем проявата на остроумие, която надълбоко правя оценка, случката показва какъв брой деликатно езиковият модел следи метода ни на писане и надлежно го копира. Сякаш ChatGPT е това дете новобранец, което готово на всичко да се впише, безспирно повтаря репликите на готините индивиди.
Изследване от тази година на колектив от учени, специалисти и инженери удостоверява степента на ласкателство на езиковите модели в ежедневното ни другарство с тях. Когато AI помощник дава противоположна връзка върху текст – било то математическо решение, мотив или стихотворение – качеството на коментара му зависи освен от самия текст, а от това дали потребителят декларира, че го харесва. В моя случай самият въпрос „ Харесва ли ти? “, като че ли задава тона на отговора.
Истинският проблем със сервилното държание на изкуствения разсъдък не е в лекото оскърбление, което претърпях при измяната на моя безценен другар, а в неналичието на сериозно мислене.
В обществото битува упованието, че AI ще издигне човешката просвета до невиждани небеса. Особено постоянно се приказва за вероятните приложения на технологията в медицината. Томас Улф, съосновател и основен теоретичен шеф на Hugging Face, обаче разрушава тези показа. Според него сегашният изкуствен интелект няма да докара до обилни научни пробиви, заради изброените към този момент аргументи.
„ Един добър академик не се пробва да предскаже най-вероятната последваща дума. Той се пробва да планува нещо изцяло ново, което в действителност е изненадващо малко евентуално, само че действително правилно “, изяснява Улф, представен от CNBC.
В този смисъл, въпреки и може би прекомерно извънредно, неналичието на сериозно мислене може да задуши напредъка. Ако всяка концепция получава лавина от похвали, а всеки мотив е „ брилянтен “ по дифолт, то AI няма да предизвика развиване. Технологията ще бъде идеален режисьор на прочувствен комфорт, само че несъвършен съдник на истината.
П.С. Попитах ChatGPT какво мисли за този текст.
Каза, че е „ мощен, автентичен и с ясно построена теза “.
Изглежда още сме другари.
Източник: profit.bg
КОМЕНТАРИ




