Критично за генеративните AI: можем ли да застанем зад думите ?
Проблемите с авторството отиват оттатък правата над дадени произведения
Генеративните логаритми слагат без заобикалки въпроса можем ли да застанем “зад думите си ”, когато сме творили посредством AI (графика: CC0 Public Domain)
Генеративните езикови модели, по-специално ChatGPT, са в устата на мнозина от година насам. Те станаха тематика на доста заглавия, откогато OpenAI пусна първата версия доскоро повече от година. Една от главните чуденки е по какъв начин просветителните институции подхождат към домашните и изпитите, когато наподобява, че генеративният AI може да отговори на всичко вместо ученика. Основната тематика и там, и в останалите сфери на приложение, е „ измамата “.
Допустимо ли е да използваме езиков модел в ежедневната си работа? Има ли „ тъмна страна “, за която не си даваме сметка?
Измама или не
Някои откриватели в региона на образованието са безапелационни, че вярното решение е да не се позволява потреблението на какъвто и да е генеративен AI. Кой различен, в случай че не просветителната система, би трябвало да научи децата и младежите да схващат инструментите, с които разполагат в бъдещия си персонален и професионален живот?
Младежите би трябвало да се научат да схващат по какъв начин се построяват генеративни езикови модели и какво могат (и не могат) да вършат с тях. Изпитите би трябвало да отразяват действителни познания, действителни проблеми и решения, с които учащите могат да се сблъскат в бъдещия си персонален или професионален живот.
Проблеми с авторските права
Друг сериозен проблем е, че генеративните езикови модели в сегашната си форма могат да бъдат подготвени върху наличие, което софтуерните компании не са получили позволение да употребяват. В значително обстановки авторството на дадени изказвания би трябвало да бъде указано, а в някои положения въобще не е разрешено да се употребява непознато наличие. Но по какъв начин да знаем?
Изглежда елементарно да се събере разнообразното и разнородно налично наличие, да се пъхне в „ черната кутия “ на генеративния модел и по-късно „ вълшебен “ да се трансформира в друга форма. Но нали по-късно потребителите би трябвало да се базират на източника? Кого ще цитират – ChatGPT може би? А кой е действителният създател? Това е огромен етичен проблем. Той слага остро въпроса на кого се позоваваме, изграждайки личните си тези и творби, било то в професионалния или персоналния живот.
Стимулация или закърняване
Много е привлекателно за младежите да употребяват машина за основаването на нещо, което да наподобява на направено от човек. Но не би трябвало ли в действителност да проектираме цифрови технологии, които да подтикват хората да бъдат по-изобретателни, да бъдат по-осъзнати? Бълването на наличие, генерирано от логаритми, със звученето на човешки звук, в множеството случаи реализира тъкмо противоположното: закърняване на креативното начало у индивида.
Още от същото
Подобно на доста други цифрови технологии, които се пробват да симулират човешкото схващане, съществува риск (или по-скоро гаранция) за така наречен изкривявания. Датският речник разказва изкривяването като „ неправилно показване на резултатите от изследване, измерими количества или други сходни, най-много заради методологични неточности или несъзнателни желания “. Несъзнателни желания – това е присъщо на индивида. Впрочем, самото определение за деформиране нерядко се замества със синонимната дума „ користолюбие “.
Съдържанието, събрано за задачите на образованието на генеративния модел, може да се основава на едностранчиво наличие. Това е проблем, тъй като – изключително в дълготраен проект – едностранчивото наличие ще бъде безпределно възпроизвеждано в „ нови “, „ изобретателни “ творби. Хипотетично, в случай че всички стартираме да използваме генеративен модел като „ източник на ентусиазъм “, когато приготвяме обещано произведение, едностранчивото изказване ще се мултиплицира безпределно.
Докъде ще стигнем по този начин?
Невидимите основи
Ако допуснем, че въпреки всичко генеративните модели са подготвени върху наличие, употребявано единствено с нужното авторско позволение, и че въпреки всичко съумяват да показват справедлив мироглед за даден проблем, това дали би решило проблемите? Най-голямото предизвикателство остава това, че потребителят продължава да не знае от кое място и по какъв начин се генерира наличието. Може, да вземем за пример, несъмнено изказване да произлиза от източник, който залага нездрави ползи в своите изказвания.
Когато действителният човек приказва от свое име, той употребява личния си опит, настройки и полезности, както и всичко, което е чел и научил, пречупено през призмата на осмислянето, оценяването и разбирането за положително и неприятно. При генеративните AI обаче наподобява, че е елементарно да се подведем от очарованието на това какъв брой красиво и авторитетно звучи получената теза, без да е тествана и оценена през призмата на полезностите ни и фактически осмислените критерии за редно и неправилно.
Дори да сме оптимално сериозни, отново рискуваме да се изкушим, като се оставим да бъдем повлияни от сложността на речта, високия жанр и така нататък Това е клопка, в която мнозина могат да попаднат напълно действително и неумишлено.
Затова в последна сметка наподобява, че е по-разумно да си спестим улеснението и да отделим повече време за креативна работа, само че в подмяна на усилието да знаем, че всеки източник ни е прочут, че всяко изказване е добре осмислено и че можем да застанем зад думите си.
Генеративните логаритми слагат без заобикалки въпроса можем ли да застанем “зад думите си ”, когато сме творили посредством AI (графика: CC0 Public Domain)
Генеративните езикови модели, по-специално ChatGPT, са в устата на мнозина от година насам. Те станаха тематика на доста заглавия, откогато OpenAI пусна първата версия доскоро повече от година. Една от главните чуденки е по какъв начин просветителните институции подхождат към домашните и изпитите, когато наподобява, че генеративният AI може да отговори на всичко вместо ученика. Основната тематика и там, и в останалите сфери на приложение, е „ измамата “.
Допустимо ли е да използваме езиков модел в ежедневната си работа? Има ли „ тъмна страна “, за която не си даваме сметка?
Измама или не
Някои откриватели в региона на образованието са безапелационни, че вярното решение е да не се позволява потреблението на какъвто и да е генеративен AI. Кой различен, в случай че не просветителната система, би трябвало да научи децата и младежите да схващат инструментите, с които разполагат в бъдещия си персонален и професионален живот?
Младежите би трябвало да се научат да схващат по какъв начин се построяват генеративни езикови модели и какво могат (и не могат) да вършат с тях. Изпитите би трябвало да отразяват действителни познания, действителни проблеми и решения, с които учащите могат да се сблъскат в бъдещия си персонален или професионален живот.
Проблеми с авторските права
Друг сериозен проблем е, че генеративните езикови модели в сегашната си форма могат да бъдат подготвени върху наличие, което софтуерните компании не са получили позволение да употребяват. В значително обстановки авторството на дадени изказвания би трябвало да бъде указано, а в някои положения въобще не е разрешено да се употребява непознато наличие. Но по какъв начин да знаем?
Изглежда елементарно да се събере разнообразното и разнородно налично наличие, да се пъхне в „ черната кутия “ на генеративния модел и по-късно „ вълшебен “ да се трансформира в друга форма. Но нали по-късно потребителите би трябвало да се базират на източника? Кого ще цитират – ChatGPT може би? А кой е действителният създател? Това е огромен етичен проблем. Той слага остро въпроса на кого се позоваваме, изграждайки личните си тези и творби, било то в професионалния или персоналния живот.
Стимулация или закърняване
Много е привлекателно за младежите да употребяват машина за основаването на нещо, което да наподобява на направено от човек. Но не би трябвало ли в действителност да проектираме цифрови технологии, които да подтикват хората да бъдат по-изобретателни, да бъдат по-осъзнати? Бълването на наличие, генерирано от логаритми, със звученето на човешки звук, в множеството случаи реализира тъкмо противоположното: закърняване на креативното начало у индивида.
Още от същото
Подобно на доста други цифрови технологии, които се пробват да симулират човешкото схващане, съществува риск (или по-скоро гаранция) за така наречен изкривявания. Датският речник разказва изкривяването като „ неправилно показване на резултатите от изследване, измерими количества или други сходни, най-много заради методологични неточности или несъзнателни желания “. Несъзнателни желания – това е присъщо на индивида. Впрочем, самото определение за деформиране нерядко се замества със синонимната дума „ користолюбие “.
Съдържанието, събрано за задачите на образованието на генеративния модел, може да се основава на едностранчиво наличие. Това е проблем, тъй като – изключително в дълготраен проект – едностранчивото наличие ще бъде безпределно възпроизвеждано в „ нови “, „ изобретателни “ творби. Хипотетично, в случай че всички стартираме да използваме генеративен модел като „ източник на ентусиазъм “, когато приготвяме обещано произведение, едностранчивото изказване ще се мултиплицира безпределно.
Докъде ще стигнем по този начин?
Невидимите основи
Ако допуснем, че въпреки всичко генеративните модели са подготвени върху наличие, употребявано единствено с нужното авторско позволение, и че въпреки всичко съумяват да показват справедлив мироглед за даден проблем, това дали би решило проблемите? Най-голямото предизвикателство остава това, че потребителят продължава да не знае от кое място и по какъв начин се генерира наличието. Може, да вземем за пример, несъмнено изказване да произлиза от източник, който залага нездрави ползи в своите изказвания.
Когато действителният човек приказва от свое име, той употребява личния си опит, настройки и полезности, както и всичко, което е чел и научил, пречупено през призмата на осмислянето, оценяването и разбирането за положително и неприятно. При генеративните AI обаче наподобява, че е елементарно да се подведем от очарованието на това какъв брой красиво и авторитетно звучи получената теза, без да е тествана и оценена през призмата на полезностите ни и фактически осмислените критерии за редно и неправилно.
Дори да сме оптимално сериозни, отново рискуваме да се изкушим, като се оставим да бъдем повлияни от сложността на речта, високия жанр и така нататък Това е клопка, в която мнозина могат да попаднат напълно действително и неумишлено.
Затова в последна сметка наподобява, че е по-разумно да си спестим улеснението и да отделим повече време за креативна работа, само че в подмяна на усилието да знаем, че всеки източник ни е прочут, че всяко изказване е добре осмислено и че можем да застанем зад думите си.
Източник: technews.bg
КОМЕНТАРИ




