Скоро за човека няма да остане никакво място, което е

...
Скоро за човека няма да остане никакво място, което е
Коментари Харесай

Роботът чете мислите ни. Знаем ли какво правим?

Скоро за индивида няма да остане никакво място, което е единствено персонално негово пространство. Дори мислите ни и диалозите, които водим със себе си или утопичен сътрудник, към този момент ще могат да бъдат декодирани от мозъчен скенер. Изследователи са създали първия неинвазивен способ за установяване на същността на въображаемата тирада, представяйки допустимо решение за връзка на хора, които не могат да приказват. Това беше разказано като стъпка към четенето на мисли, съобщи БГНЕС, като цитира Агенция Франс Прес. Но какъв брой близо е технологията до същинското четене на мисли? И по какъв начин политиците могат да подсигуряват, че с сходни разработки няма да се злоупотребява?

 
--> " Кръстникът " на изкуствения разсъдък: Скоро той ще е по-умен от хората AI се учи от опита, както прави човек, само че споделя знанията си неотложно с всички себеподобни
Повечето съществуващи технологии за привеждане на мисъл към диалект употребяват мозъчни импланти, които следят интензивността в моторния кортекс на индивида и предсказват думите, които устните се пробват да образуват. За да схванат действителното значение зад тази мисъл, неврологът Александър Хът и компютърният експерт Джери Танг от Тексаския университет в Остин са комбинирали функционален магнитен резонанс (fMRI), неинвазивно средство за премерване на мозъчната интензивност, с логаритми с изкуствен интелект, наречени огромни езикови модели (LLM), които са в основата на принадлежности като ChatGPT и са подготвени да плануват идната дума в част от текста.

В изследване, оповестено в Nature Neuroscience на 1 май, откривателите карат трима доброволци да лежат в fMRI скенер и записват мозъчната им интензивност, до момента в който слушат 16 часа подкасти. Чрез премерване на притока на кръв през мозъците на доброволците и консолидиране на тази информация с детайлности за историите, които са слушали и способността на изкуствения разсъдък да разбере по какъв начин думите се свързват една с друга, откривателите създават кодирана карта за това по какъв начин мозъкът на всеки субект реагира на разнообразни думи и изречения.

След това записват активността на участниците с fMRI, до момента в който слушат история, показват си по какъв начин описват история или гледат филм, който не съдържа разговор. Използвайки композиция от моделите, които преди този момент са кодирали за всеки субект, и логаритми, които дефинират по какъв начин едно изречение евентуално ще бъде конструирано въз основа на други думи в него, откривателите се пробват да декодират тази нова мозъчна активност.
Попадения и пропуски
Декодерът генерира фрази, които схващат същността на това, което индивидът мисли. Фразата " Все още нямам шофьорска брошура ", да вземем за пример, е декодирана като " Тя даже още не е почнала да се учи да кара ". Технологията прави много точна работа и в описването на това, което хората виждат във филмите. Но доста от изреченията са били неточни.

Изследователите открили, че е елементарно да се излъже технологията. Когато участниците мислят за разнообразни неща, до момента в който слушат записана история, декодерът не може да дефинира думите, които чува. Кодираната карта също се разграничава сред обособените човеци, което значи, че откривателите не могат да основат един декодер, който да работи за всички.

Но даже когато участниците измисляли свои лични истории, или гледали неми филми, декодерът въпреки всичко успявал да схване " същността ", споделят откривателите. Това демонстрира, че " ние декодираме нещо, което е по-дълбоко от езика, и по-късно го трансформираме в език ", споделя Хът.
Кой ще отбрани персоналният ни живот?
Макар че главната цел на езиковия декодер е да помогне на хора, които са изгубили способността си да поддържат връзка, американските учени признават, че технологията повдига въпроси за " неприкосновеността на персоналния живот ". За да успокоят тези опасения, те организираха проби, които демонстрираха, че техният декодер не може да бъде употребен от лица, които не са разрешили той да бъде подготвен на мозъчната им активност в продължение на дълги часове в скенер за функционален магнитен резонанс (фМР).

Това е първата система, която може да реконструира непрестанен език без инвазивен мозъчен имплант, съгласно изследването в списание Nature Neuroscience.

Давид Родригес-Ариас Вайлен, професор по биоетика в испанския университет в Гранада, който не е взел участие в проучването, съобщи, че то надвишава постигнатото от предходни мозъчно-компютърни интерфейси. Това ни приближава до бъдещето, в което машините " ще могат да четат и да преписват мисли ", сподели той, като предизвести, че това може да се случи срещу волята на хората, да вземем за пример когато те спят.

Изследователският екип се надява да форсира процеса, с цел да може да декодира мозъчните сканирания в действително време. Учените приканиха и за правила за отбрана на персоналния живот на психологично болните. " Досега нашият разум е бил страж на персоналния ни живот ", сподели биоетикът Родригес-Ариас Вайлен. " Това изобретение може да бъде първата стъпка към компрометиране на тази независимост в бъдеще ".
AI гуруто доктор Джефри Хинтън съжалява за работата си
75-годишният доктор Джефри Хинтън, прочут като " Кръстникът " на изкуствения разсъдък, подаде оставката си от компанията Google. В изказване за New York Times той сподели, че към този момент може да приказва свободно и в този момент съжалява за работата си. Той изясни, че някои от заплахите от чатботовете с изкуствен интелект (AI) са " много страшни ". " В момента те не са по-интелигентни от нас, доколкото мога да преценява. Но мисля, че скоро може да са. " Пионерските проучвания на доктор Хинтън върху невронните мрежи и така наречен " надълбоко образование " проправиха пътя за актуалните AI системи, като ChatGPT. В региона на изкуствения разсъдък невронните мрежи са системи, които са сходни на човешкия мозък по метода, по който учат и обработват информация. Те разрешават на AI да се учат от опита, както би направил човек. Това се назовава надълбоко образование.

Британско-канадският когнитивен психолог и компютърен академик сподели пред BBC, че чатботовете скоро могат да надминат равнището на информация, което човешкият мозък има.

" В момента това, което виждаме, е, че неща като GPT-4 засенчват човек във връзка с общите знания, които има, и то доста. От позиция на разсъждаването обаче не е толкоз добър, само че към този момент прави елементарни разсъждения. И като се има поради темпът на прогрес, чакаме нещата да се подобрят много бързо. Така че би трябвало да се тревожим за това, " сподели ученият.

Пред New York Times доктор Хинтън приказва за " неприятни артисти ", които биха се пробвали да употребяват AI за " неприятни неща ". Когато е помолен да обясни това свое изказване, той дава отговор: " Това е просто един тип най-лош сюжет. Можете да си визиите, да вземем за пример, в случай че някой неприятен артист, като съветския президент Владимир Путин, реши да даде на роботите способността да основават свои лични подцели. " Ученият предизвестява, че това може " да сътвори подцели като да вземем за пример: " Трябва да получа повече мощ ". " Стигнах до извода, че типът разсъдък, който развиваме, е доста друг от интелекта, който имаме. Ние сме биологични системи, а това са цифрови системи. И огромната разлика е, че с цифровите системи имате доста копия на еднакъв модел на света. И всички тези копия могат да учат поотделно, само че да споделят знанията си неотложно. Така че все едно имате 10 000 души и всякога, когато един човек научи нещо, всички автоматизирано го знаят. Това е методът, по който тези чатботове могат да знаят доста повече от всеки един човек ".

Д-р Хинтън се причислява към възходящия брой специалисти, които показват угриженост по отношение на AI - както за скоростта, с която се развива, по този начин и за посоката, в която върви. През март отворено писмо, подписано от десетки специалисти  в региона на изкуствения разсъдък, в това число софтуерния милиардер Илон Мъск, прикани за прекъсване на всички разработки, които са по-напреднали от настоящата версия на чатбота ChatGPT, тъй че да могат да бъдат проектирани постоянни ограничения за сигурност и да бъдат изпълнени. Йошуа Бенгио, различен по този начин наименуван кръстник на AI, който дружно с доктор Хинтън и Ян Лекун завоюваха премията " Тюринг " през 2018 година за работата си по задълбочено образование, също подписа писмото.
Източник: standartnews.com


СПОДЕЛИ СТАТИЯТА


КОМЕНТАРИ
НАПИШИ КОМЕНТАР