Изкуственият интелект не мисли – той само гадае
Съвременните модели на изкуствен интелект се основават на статистически прогнози, а не на същинско схващане, което основава фундаментални проблеми във действието им.
Изкуственият разсъдък, макар способността си да имитира човешкия език, не мисли по метода, по който сме привикнали. Работи на правилото на статистическото прогнозиране, обработвайки големи количества данни. Механизмите му на образование изясняват множеството от рестриктивните мерки на тези технологии. Разбирането на тези механизми е от решаващо значение за безвредното внедряване на изкуствения разсъдък.
Как се образоват огромните езикови модели?
Процесът на образование на ИИ е доста друг от човешкото знание. Моделите на огромните езици (LLM) разделят текста на по-малки единици, наречени „ токени “. Тези токени могат да бъдат думи или елементи от думи, които моделът проучва поредно. Както показва откривателят Атхарва Госави: „ Моделите не боравят със приключени хрумвания – единствено с вероятности за всеки токен. “
Основата на LLM образованието са милиарди тегловни коефициенти. Те могат да се преглеждат като регулатори, които дефинират връзките сред токените. По време на образованието моделът поправя тези тегла, употребявайки „ функционалност на загуба “. Той прави оценка точността на прогнозата и понижава грешките в идващите итерации.
Например, в случай че бъде запитан за столицата на Франция, моделът не „ знае “ отговора. Той дефинира, че след този въпрос най-често се среща думата „ Париж “. Това е фундаментална разлика от човешкото знание и схващане. Изкуственият разсъдък разпознава модели в текста, без да схваща тяхното наличие или подтекст.
Ключови проблеми на актуалните модели за изкуствен интелект
Статистическият темперамент на работата на LLM основава съществени проблеми. Една от най-забележимите са халюцинациите —- когато моделът решително генерира погрешна информация. Това се дължи на неналичието на същинско схващане и оценка на достоверността. Моделът възпроизвежда единствено моделите, които е следил по време на образованието си.
Пристрастието е различен сериозен проблем в актуалните LLM. Моделите се образоват върху големи количества интернет данни, които съдържат всички човешки предразсъдъци. Невъзможността за обособяване на обстоятелствата от субективните оценки лимитира надеждността на сходни системи. Както акцентират откривателите: „ Отклонението не е съзнателно, а зависи от данните за образование. “
Проблемът с отклонението на модела поражда, когато действителността се трансформира по-бързо, в сравнение с се актуализират данните на изкуствения разсъдък. Представете си модел, подготвен през 2022 година да предсказва потребителските желания. След икономическите промени през 2023 година, прогнозите му ще станат по-малко точни. Знанието на модела „ замръзва “ по време на образованието, което лимитира дълготрайната му стойност.
Предизвикателствата при решаването на проблеми с изкуствения разсъдък
Коригирането на минусите на актуалните модели на изкуствен интелект изисква обилни запаси. Преобучението на моделите с нови данни изисква голяма изчислителна мощ. Това образование на модел на равнище GPT-4 лишава седмици или месеци със профилирано съоръжение. Финансовите разноски постоянно надвишават евентуалните изгоди от премахването на предразсъдъците.
Ефектът на „ черната кутия “ затруднява коригирането на грешките. Решенията на модела са основани на милиарди взаимосвързани тегловни коефициенти. Дори разработчиците не могат да дефинират тъкмо за какво даден модел дава съответен отговор. Липсата на бистрота прави невероятно точното установяване на проблематичното държание.
Обучението с подсилваща противоположна връзка от индивида (RLHF) отчасти смекчава тези проблеми. Човешките рецензенти правят оценка входните данни, като образоват модела на вярното държание. Въпреки това, RLHF остава трудоемък, безценен и стеснен в човешки мащаб. Той не е в положение да обхване всички вероятни отговори, които моделът може да генерира.
Съвременни подходи за възстановяване на сигурността на ИИ
Изследователи и компании работят интензивно за възстановяване на сигурността на моделите с изкуствен интелект. Техните старания обгръщат алгоритмични нововъведения и създаване на регулаторна рамка. Съобразяването на моделите с човешките полезности се трансформира в приоритет за водещите разработчици.
Проектът Superalignment на OpenAI се концентрира върху основаването на системи, които регистрират човешките планове. Екипът работи върху модели, способни да разсъждават за полезности и сигурност без непрекъснат контрол. Anthropic създава „ парламентарен изкуствен интелект “ —- техника, при която моделът следва избрани правила, вместо да разчита само на човешка противоположна връзка.
От регулаторна позиция, законодателството на Европейски Съюз за изкуствения разсъдък дефинира рамка за безвредното потребление на технологиите. Той класифицира системите по равнище на риск и постанова по-строги условия към приложенията с висок риск. Както специалистите показват: „ Целта не е просто по-добро показване, а безвредно показване, което отразява човешките полезности. “
Академични лаборатории, в това число Stanford CRFM, MIT CSAIL и Института за бъдещето на човечеството в Оксфорд, изследват подходи за понижаване на предразсъдъците. Техните проучвания оформят индустриалните стандарти и политическите решения в региона на изкуствения разсъдък.
Заключение: Ролята на човешкия контрол
Въпреки впечатляващите си благоприятни условия, LLM остава единствено инструмент за прогнозиране. Той не схваща подтекста, смисъла или следствията. Човешкият контрол остава от решаващо значение за обезпечаване на точността и етичното потребление на ИИ.
Потребителите би трябвало да са наясно с рестриктивните мерки на тези системи. Можете да употребявате изкуствен интелект, с цел да обобщавате документи или да генерирате код. Въпреки това, когато точността е значима, човек би трябвало да ревизира резултатите. Потребителят е виновен за грешките, а не моделът.
Разбирането на механизмите за образование на ИИ оказва помощ за реалистична оценка на опциите на тези технологии. Разбирането на рестриктивните мерки е първата стъпка към безвредното и дейно потребление на изкуствения разсъдък за възстановяване на човешките благоприятни условия.
