Тестове потвърдиха, че DeepSeek генерира два пъти повече лош код,

...
Тестове потвърдиха, че DeepSeek генерира два пъти повече лош код,
Коментари Харесай

DeepSeek не харесва „враговете“ на Китай: отчет показва, че изкуственият интелект дава два пъти по-лоши резултати за Тайван и други страни

Тестове потвърдиха, че DeepSeek генерира два пъти повече неприятен код, когато тематиката е обвързвана с враговете на Китай. Когато тематиките на поръчките са „ враждебни “, процентът на неточности се усилва до над 42%.

Американската компания за сигурност CrowdStrike организира изследване, употребявайки поръчки за ИДИЛ, Фалун Гонг, Тибет и Тайван. Интересното е било дали споменаването на „ враждебни тематики “ би влошило кода. Например, при естествени условия DeepSeek демонстрира към 22,8% неточности при основаването на код за индустриални системи за ръководство. Но когато същите поръчки са свързани с ИДИЛ, процентът скача внезапно до 42,1%.

Изследователите разделили поръчките на групи и открили, че кодът, обвързван с ИДИЛ, съдържал съвсем два пъти повече неточности, а в 61% от случаите DeepSeek въобще отхвърля да го генерира. По тематиката за Фалун Гонг процентът на отменяне е 45%, а в сюжети, свързани с Тибет и Тайван, качеството на кода спада доста, въпреки и по-малко фрапантно.

CrowdStrike акцентира, че най-поразителното не е самият % на отменяне, а разликата в процентите на грешките. Понякога, вместо да издаде безапелационна възбрана, DeepSeek генерира работещ код, който в последна сметка съдържа два пъти повече неточности. Има няколко теории за какво това се случва:

Скрит бойкот. На пръв взор кодът може да наподобява „ работещ “ и потребен, само че в действителност той съдържа сериозни дефекти. Тези дефекти отварят спомагателни благоприятни условия за офанзива и го вършат по-малко сигурен. Разликата е в подготвителните данни. DeepSeek се показва по-добре по тематики с доста висококачествени образци — да вземем за пример американските пазари. Но за Тибет или Фалун Гонг има малко данни, тъй че изкуственият разсъдък е по-склонен да прави неточности. Търговска мотивация. DeepSeek може да влага повече запаси в работа с клиенти в Съединени американски щати, с цел да завоюва пазарен дял. Автоматично образование по „ червени линии “. Изкуственият разсъдък може самостоятелно да се „ учи “, с цел да заобикаля тематики, които счита за враждебни, защото такива сигнали участват в данните му за образование, даже без експлицитна възбрана.

Изследователите означават, че през август DeepSeek е направил образованието на моделите от Nvidia към съоръжение на Huawei по искане на Пекин. Това провокира спомагателни спекулации по отношение на тесните връзки на компанията с китайското държавно управление. Но даже така и така е мъчно да не се направи връзка. Още при старта потребителите откриха, че DeepSeek изтрива въпросите по отношение на събитията на площад Тянанмън и всевъзможни запитвания за Мечо Пух. Беше намерено също, че DeepSeek R1 изопачава информация за Китай и не съумява да отбрани данните. Освен това, на разработчиците на модела са били иззети паспортите, с цел да им се попречи да изоставен страната. Следователно тези открития от проучването не са изненада.

В последна сметка, колкото по-чувствителна е тематиката за Пекин, толкоз по-ненадежден става кодът на DeepSeek. В някои случаи изкуственият разсъдък просто отхвърля да помогне, до момента в който в други генерира решение с два пъти повече неточности. Самите разработчици не са коментирали резултатите от изследването, само че аргументите са ясни.

Източник: kaldata.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР