Учените и разработчиците на изкуствен интелект все по-често се питат

...
Учените и разработчиците на изкуствен интелект все по-често се питат
Коментари Харесай

Ръководителят на AI в Microsoft: „Изучаването съзнанието на изкуствения интелект е преждевременно и опасно“

Учените и разработчиците на изкуствен интелект все по-често се питат по кое време моделите на изкуствен интелект ще могат да развиват субективни прекарвания, сходни на тези на живите същества, и в случай че могат, какви права би трябвало да имат. В Силициевата котловина тематиката е наречена „ благополучието на ИИ “. Наскоро основният изпълнителен шеф по изкуствения разсъдък на Microsoft Мустафа Сюлейман разгласява публикация, в която декларира, че е „ прибързано и, почтено казано, рисково да се занимаваме с проучване на благосъстоянието на изкуствения разсъдък “.

Подкрепяйки концепцията, че ИИ един ден може да придобие схващане, откривателите единствено задълбочават вредата за хората от психотичните разстройства, породени от ИИ технологиите, и нездравата обвързаност към чатботовете, счита Сюлейман. Това са проблеми, които занапред започваме да виждаме към нас, само че те стават все по-големи.

Нещо повече, ръководителят на отдела за изкуствен интелект на Microsoft твърди, че дебатът за благосъстоянието на изкуствения разсъдък основава ново разделяне в обществото във връзка с правата на изкуствения разсъдък в „ свят, който към този момент гъмжи от поляризирани диспути за идентичността и правата “.

Мнението на Сюлейман е в несъгласие с доста други представители на промишлеността, написа TechCrunch. В другия завършек на спектъра е компанията Anthropic, която наема откриватели, с цел да учи благосъстоянието на ИИ, и неотдавна започва специфична изследователска стратегия, отдадена на концепцията за благосъстоянието на ИИ. Миналата седмица Anthropic даде на някои от моделите на компанията нова функционалност: чатботът Claude към този момент може да приключва диалозите с хора, които се държат неприятно и обидно.

В допълнение към Anthropic, изследването на благосъстоянието на ИИ се прави в OpenAI. А Гугъл DeepMind неотдавна разгласява публикация за работа на откривател, който да учи, наред с други неща, и „ авангардните обществени въпроси, свързани с машинното усещане, съзнанието и многоагентните системи “. Дори и благосъстоянието на ИИ да не е публична политика на тези компании, техните ръководители, за разлика от Сюлейман, не осъждат обществено тези правила.

Идеята за благосъстоянието на ИИ закупи известност с появяването на чатботовете. През 2024 година изследователската група Eleos, дружно с учени от университетите в Ню Йорк, Станфорд и Оксфорд, разгласява публикация, озаглавена Taking AI Welfare Seriously (Сериозното отношение към благосъстоянието на ИИ). В публикацията се твърди, че концепцията, че ИИ моделите имат субективни прекарвания, към този момент не е нещо от сферата на научната фантастика и че е време да се огледа съществено на въпроса.

Въпреки това Сюлейман допуска, че актуалните ИИ модели не са способни на субективни прекарвания. А това, което от време на време се приема за демонстрация на схващане при машините, не е нищо повече от особено вградени логаритми, предопределени да имитират човешките усеща, с цел да създадат чатботовете по-достоверни за потребителите.

Трудно е да се отговори на въпроса за хипотетичното съществуване на схващане в машините, в случай че не можем да разберем какво въобще е съзнанието. Неотдавна списание Nature разгласява резултатите от „ конкурентно съдействие “ на групата Cogitate Consortium, в което се съпоставят две известни през днешния ден теории за природата на съзнанието – теорията за световното работно пространство и теорията за интегрираната информация. Оказа се, че нито една от тях не минава един неутрален тест.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР