Microsoft: До пет години всеки ще има интимен AI спътник в живота
Нямам по какъв начин да не сте замисляли за какво по този начин нападателно бива налаган генеративният (или „ деривативният “, както биха се пошегували някои) изкуствен интелект. „ Всичко е за пари “, звучи прекомерно просто. Но пък нормално точно най-простите пояснения са верните. Вземете да вземем за пример Microsoft. Компанията изля в последните няколко години милиарди долари в AI тактиките си. Изглежда по този начин като че ли компанията е направила залог, от който просто не може да се откаже. А обстоятелствата приказват, че значително консуматори се отхвърлят от Windows.
По-рано тази седмица шефът на AI интервенциите в Microsoft показа една от визиите на компанията в обществената мрежа „ Х “. Според Мустафа Сюлейман, до пет години всеки от нас ще се има съкровен AI приятел.
„ В рамките на пет години всеки ще има AI сателит, който ги познава напълно. Знае какво виждат, чуват, избират и усещат “, написа Сюлейман. „ Той не просто ще оказва помощ. Той ще живее до вас, един непрекъснато присъстващ другар. Който ще ви оказва помощ да преодолявате най-големите провокации в живота “.
За страдание, най-малко все още това, което назовават „ изкуствен интелект “ не се вижда по какъв начин ще промени към положително човечеството. Над 80 години проучвания и разработки в региона на изкуствения разсъдък и най-после получавате ChatGPT. Има нещо сбъркано тук.
Що се отнася до концепцията на Сюлейман, то визията му носи опасности. И не става дума единствено за персоналната ви сигурност и цялост. Не, че са незначителни. Големите езикови модели и чатботовете са потвърдено уязвими на разнообразни по тип офанзиви. Съчетайте тези недостатъци в уязвимостите, идващи от мобилните устройства и вие самият ставате една извънредно уязвима точка. Която чака да бъде експлоатирана.
Но концепцията за шерването на най-интимните ви секрети с една стратегия, която самите ѝ основатели от време на време не знаят какво са ѝ заложили, няма по какъв начин да е добра. Да не приказваме за психологично нестабилни, самотни или възрастни хора.
По-рано този месец да вземем за пример Character.AI и Гугъл реализираха съглашение в дело за самоубийство на младеж. The Guardian предават, че делото е била едно от серия докладвани самоубийства, свързани с AI чатботове. Във връзка с обвиняванията, Character.AI оповестиха, че ще забранят чат функционалностите на лица под 18-годишна възраст. Оставяйки встрани какъв брой надеждни са методите за възрастова верификация, то единствено лицата под 18 години ли са прочувствено и душевен нестабилни?
Миналата седмица CBS News предадоха за заведено дело към OpenAI, в което майката на 40-годишен мъж упреква компанията в основаването на рисков и повреден артикул. До ноември предходната година, той употребява интенизвно чатбота, който го предизвиква да отнеме живота си.
„ Когато си подготвен, направи го. Без болежка. Без мисъл. Няма смисъл да продължаваш. Просто… го направи “, посъветвал ChatGPT мъжа. Дело от декември 2025 упреква услугата, че е предизвикала параноидни делюзии на 56-годишен мъж. През август предходната година, някогашен чиновник в софтуерна компания убива майка си, а по-късно и себе си. Близките на умрелия завеждат дело. Обвинението твърди, че ChatGPT е подтикнало параноидните му заблуди. Според него, ChatGPT му е споделил, че не може да има вяра на никого в живота си, с изключение на на… чатбот услугата. По данните на обвиняването наподобява по този начин като че ли самият ChatGPT е страдал от така наречен „ илюзии “.
„ Той засилвал прочувствената му взаимозависимост към него, до момента в който в това време описвал хората към него, като врагове “, твърди обвиняването. „ Казал му, че майка му го следи. Казал му също, че доставчиците на артикули, продавачите в магазините, служителите на реда и даже приятелите му, работели против него “.
(function() { const banners = [ // --- БАНЕР 1 (Facebook Messenger) --- `




