ИИ реши да опрости Уикипедия и почти я съсипа
Нещо се обърка с изкуствения разсъдък и това усетиха всички, които имат вяра в ръчния труд.
The Wikimedia Foundation краткотрайно спря опита с автоматизираното генериране на къси резюмета на публикации, които се посочваха на потребителите на Wikipedia при започване на страницата.
Причината беше внезапното и съвсем единомислещо неодобрение на общността от редактори, които сметнаха тази самодейност за нездравословна за репутацията и правилата на плана.
Самите резюмета бяха основани благодарение на модела Aya на компанията Cohere и се посочваха в браузърното уголемение на Wikipedia.
Те се появиха в горната част на публикацията с жълта маркировка „ Unverified “ и се разпростираха при кликване. Официално опитът стартира на 2-ри юни и в началото трябваше да продължи две седмици, да бъде непринуден и да визира мобилната версия на уеб страницата. Но след бурята от отрицателни мнения, той беше бързо преустановен.
Много от членовете на общността остро реагираха на въвеждането на генеративния ИИ. Един от редакторите назова опита директна засегнатост за интелигентността на читателите, като акцентира, че Уикипедия се е трансформирала в знак на надеждност и въздържаност точно заради ръчния си метод и премахването на „ шаренията “ и алгоритмичното показване на информацията. Той съобщи, че планът рискува да загуби доверието и да „ опетни десетилетията работа по политиките за надеждност “.
Редакторите всеобщо оставяха едносрични и остри мнения, вариращи от „ безусловно не “ до „ най-лошата концепция в историята “. Основното недоволство беше, че един-единствен автоматизирано генериран текст, изнесен в горната част на страницата, унищожава модела на груповото редактиране и не оставя място за различни отзиви, като по този метод нарушава правилото на неутралната позиция. Според участниците в полемиката това опонира на концепцията за уики-платформата като жива и взаимна енциклопедия.
Експериментът с название „ Simple Article Summaries “ беше препоръчан след полемики на конференцията Wikimania 2024, където имаше хрумвания за потребление на машинно перифразиране за опростяване на комплицираните текстове. Дори поддръжниците на концепцията обаче означиха нуждата от транспарантно етикетиране на наличието с изкуствен интелект и система за модериране, която да улеснява сигнализирането за неточности или грешки.
Говорител на фондацията съобщи, че задачата е да се създадат комплицираните публикации по-достъпни за читатели с разнообразни равнища на знания. Същевременно беше очебийно, че въвеждането на ИИ в работата на Уикипедия ще бъде допустимо единствено при дейното присъединяване на редакторите и съществуването на принадлежности за надзор.
По-късно представител на плана удостовери, че разговорът с общността не е бил задоволително явен и транспарантен. Според него полемиката е трябвало да стартира овреме на техническата платформа VPT – още през март, с цел да се приготвят редакторите и да се инициира пълноценно разискване.
Въпреки че опитът е спрян, фондацията акцентира, че към момента има интерес към капацитета на генеративния изкуствен интелект. Всички бъдещи планове обаче ще бъдат осъществени единствено с присъединяване на общността и с отчитане на опита от актуалната обстановка. Окончателното решение за създаването на такива функционалности ще бъде взето взаимно с редакторите, а не едностранно.
Семантичната стойност на Уикипедия стана изключително значима във времената на всеобщо ИИ наличие, което задръства интернет. Докато огромните платформи като Гугъл се стремят да внедрят автоматизирани систематизирания, Уикипедия остава остров на ръчния труд и тестваната информация. И в случай че се съди по реакцията на общността, нейните членове са подготвени да се борят, с цел да запазят тези правила.
През октомври 2024 година група въодушевени редактори на Уикипедия стартираха нов план, наименуван WikiProject AI Cleanup. Тяхната цел е да се опълчват на притока на нискокачествено наличие, основано от изкуствения разсъдък. Инициативата е ориентирана към идентифициране и унищожаване на неприятно написаните или неточни текстове, които биха могли да влошат цялостното качество на информацията в платформата.




