Интелектът, който не разбираме: AGI е все по-близо, но остава загадка
Лидери от водещи международни лаборатории чакат в близко бъдеще да се появи форма на изкуствен интелект, равна или даже надхвърляща човешкия.
Но по какъв начин ще наподобява и по какъв начин ще се ползва технологията, остава мистерия даже за тях.
На предходната седмица, изпълнителни шефове на компании като OpenAI, Cohere, DeepMind на Гугъл и софтуерни колоси като Microsoft и Salesforce решиха рисковете и опциите, които дава изкуственият разсъдък.
Миналата година AI навлезе в съвсем всички бизнес браншове посредством ChatGPT – новаторският езиков модел на OpenAI.
Това породи угриженост измежду държавни управления, корпорации и групи за отбрана на правата на индивида предвид на рисковете, свързани с липса на бистрота в системите за AI; загубата на работни места вследствие от нарасналата автоматизация; общественото манипулиране с компютърни алгоритми; наблюдението и неприкосновеността на персоналните данни.
AGI е " супер неразбираемо дефиниран термин "
Главният изпълнителен шеф и съосновател на OpenAI Сам Алтман съобщи, че съгласно него изкуственият общ разсъдък може би не е надалеч от това да стане действителност и може да бъде създаден в " относително близко бъдеще ".
Въпреки това означи, че опасенията по какъв начин това ще промени трагично света и ще го унищожи, са пресилени.
" Това ще промени света доста по-малко, в сравнение с всички си мислим и ще промени работните места доста по-малко, в сравнение с всички си мислим ", съобщи Алтман по време на спорен панел на Bloomberg в границите на Световния конгрес в Давос.
Алтман промени мнението си за заплахите, които крие изкуственият разсъдък, откакто компанията му попадна в центъра на вниманието на регулаторните органи предходната година, когато държавните управления на Съединени американски щати, Англия, Европейския съюз и други страни се пробваха да наложат ограничавания поради рисковете, които технологиите им съставляват.
В изявление за ABC News през май 2023 година Алтман съобщи, че той и компанията му са " уплашени " от отрицателните страни на свръхинтелигентния AI. " Тук би трябвало да внимаваме. Мисля, че хората би трябвало да са щастливи, че самите ние малко се опасяваме ", разяснява преди месеци той.
Алтман добави, че се опасява от капацитета на AI да бъде употребен за " широкомащабна дезинформация ", като съобщи: " Сега, когато те стават все по-добри в писането на компютърен код, могат да се употребяват и за хакерски атаки. "
През ноември обаче Алтман беше краткотрайно отхвърлен от OpenAI и по-късно още веднъж върнат на поста изпълнителен шеф в фрапантен ход, който разкри опасенията за ръководството на фирмите, стоящи зад най-мощните системи за AI, напомня CNBC.
По време на Световния стопански конгрес в Давос Алтман съобщи, че отстраняването му е било " микрокосмос " на напрежението, с което се сблъскват OpenAI и други лаборатории за изкуствен интелект. " С приближаването на света към AGI се усилват залозите, стресът, равнището на напрежение. Всичко това ще се покачва ", призна той.
Ейдън Гомес, основен изпълнителен шеф и съосновател на стартъпа за изкуствен интелект Cohere, изрази единодушието си с Алтман.
" Мисля, че напълно скоро ще разполагаме с тази технология ", разяснява той пред CNBC на Световния стопански конгрес. Според него, основен проблем с AGI е, че той към момента не е дефиниран като технология.
" На първо място, AGI е супер неразбираемо дефиниран термин. Ако просто го определим като " по-добър от хората в съвсем всичко, което могат да вършат ", склонен съм, че напълно скоро ще получим подобен вид системи ", изясни Гомес.
Въпреки това добави, че даже когато AGI се появи, евентуално ще са нужни " десетилетия ", с цел да могат фирмите в действителност да се интегрират с технологията.
" Въпросът в действителност е какъв брой бързо можем да го приемем, какъв брой бързо можем да го въведем в произвеждане, мащабът на тези модели ни затруднява ", означи Гомес. " И по този начин, фокусът ни в Cohere е върху компресирането на това: да го създадем по-адаптивно и по-ефективно. "
Реалността е, че никой няма визия
Темата за определянето на това какво в действителност е AGI и по какъв начин ще наподобява, затруднява доста специалисти в региона на технологиите с изкуствен интелект.
Лайла Ибрахим, основен действен шеф на лабораторията за изкуствен интелект DeepMind на Гугъл, счита, че никой не може да предвижда с акуратност кой вид AI може да се квалифицира като притежаващ " общ разсъдък " и отбелязва от какъв брой значимо значение е това технологията да се развива безвредно.
" Реалността е, че никой няма визия " по кое време ще се появи AGI, сподели Ибрахим пред CNBC.
" Има спор измежду специалистите по AI, които се занимават с него от дълго време както в промишлеността, по този начин и в фирмите. Вече виждаме области, в които AI има способността да отключи нашето схващане и до момента не сме имали подобен прогрес. Така че, приказваме за AI в партньорство с индивида като инструмент ", изяснява Ибрахим.
" Мисля, че това не отворен въпрос и не знам по какъв начин по-добре да отговоря, в случай че се замислим не за това какъв брой време ще отнеме, а по какъв начин ще наподобява и по какъв начин да подсигуряваме, че сме виновни стопани на технологията? ", добавя тя.
" Губим надзор " или когато машината сама напише кода си
Сам Алтман не е единственият софтуерен водач, който разяснява тематиката за рисковете от AI на Форума в Давос.
Марк Беньоф, основен изпълнителен шеф на Salesforce, съобщи, че софтуерният свят подхваща стъпки, с цел да подсигурява, че конкуренцията за изкуствения разсъдък няма да докара до " миг на Хирошима ".
Много софтуерни водачи предизвестиха, че AI може да докара до " равнище на изгубване ", в което машините ще са толкоз мощни, че ще излязат отвън надзор и ще унищожат човечеството. Илон Мъск, Стив Возняк и някогашният претендент за президент Андрю Янг, приканиха за пауза в развиването на AI, като обявиха, че шестмесечен мораториум би бил потребен, с цел да може обществото и регулаторните органи да наваксат.
Джефри Хинтън, пионер в региона на AI, постоянно именуван " кръстникът на AI ", още предходната година предизвести, че усъвършенстваните стратегии " могат да избягат от надзор, като напишат собствен личен компютърен код, с цел да се модифицират ".
" Един от методите, по които тези системи могат да избягат от надзор, е като напишат собствен компютърен код. Това е нещо, за което би трябвало съществено да се тормозим ", съобщи Хинтън в изявление за CBS през октомври.
Хинтън даже напусна поста на вицепрезидент и инженер в Гугъл, като изрази угриженост по какъв начин компанията се оправя с сигурността и етиката на изкуствения разсъдък.
Според Беньоф, софтуерната промишленост ще би трябвало да подсигурява, че AI ще избегне проблеми като манипулиране на убежденията посредством логаритми за рекомендации по време на изборни акции и нарушение на неприкосновеността на персоналния живот.
" Досега не сме имали подобен тип интерактивност " с принадлежности, основани на изкуствен интелект, изясни Беньоф пред публиката в Давос. " Но към момента не му се доверяваме изцяло. Така че би трябвало да намерим пресечна точка на доверието ".
Ограниченията на LLM
Джак Хидари, основен изпълнителен шеф на SandboxAQ, отхвърля възторга, че AI наближава стадий, в който ще придобие " обща " просветеност. Според него, системите към момента имат доста проблеми за премахване.
Според него, чатботовете като ChatGPT са минали теста, наименуван " игра на реплика " и създаден от английския компютърен академик Алън Тюринг, с цел да се дефинира дали някой поддържа връзка с машина и човек. Но една огромна област, в която AI липсва, е здравият разсъдък.
" Едно от нещата, които видяхме от LLM (големи езикови модели), е, че може да написа фрази за колежани, само че от време на време е доста мъчно в тях да се откри здрав разсъдък. И когато попитате: " Как хората пресичат улицата? ", той даже не може да разпознае пешеходна пътека, за разлика от дребните деца ".
Хидари има сериозна прогноза за това по какъв начин ще се развие технологията на изкуствения разсъдък през 2024 г:
Тази година ще бъде първата, в която модернизиран програмен продукт за връзка с изкуствен интелект ще бъде зареден в хуманоиден робот.
" Ще забележим момента като стартирането на ChatGPT за въплътените хуманоидни роботи с AI през 2024 година, а по-късно и през 2025 година
Това не значи, че роботите ще слязат от конвейера, само че ще ги забележим да вършат демонстрации в действителността, употребявайки своята просветеност, мозък, може би употребявайки LLM и други техники на AI.
Вече 20 компании са получили поддръжка за основаване на хуманоидни роботи, в допълнение, разрушава се, към Tesla и доста други, тъй че мисля, че тази година ще се извърши превръщане ", добавя Хидари.
Но по какъв начин ще наподобява и по какъв начин ще се ползва технологията, остава мистерия даже за тях.
На предходната седмица, изпълнителни шефове на компании като OpenAI, Cohere, DeepMind на Гугъл и софтуерни колоси като Microsoft и Salesforce решиха рисковете и опциите, които дава изкуственият разсъдък.
Миналата година AI навлезе в съвсем всички бизнес браншове посредством ChatGPT – новаторският езиков модел на OpenAI.
Това породи угриженост измежду държавни управления, корпорации и групи за отбрана на правата на индивида предвид на рисковете, свързани с липса на бистрота в системите за AI; загубата на работни места вследствие от нарасналата автоматизация; общественото манипулиране с компютърни алгоритми; наблюдението и неприкосновеността на персоналните данни.
AGI е " супер неразбираемо дефиниран термин "
Главният изпълнителен шеф и съосновател на OpenAI Сам Алтман съобщи, че съгласно него изкуственият общ разсъдък може би не е надалеч от това да стане действителност и може да бъде създаден в " относително близко бъдеще ".
Въпреки това означи, че опасенията по какъв начин това ще промени трагично света и ще го унищожи, са пресилени.
" Това ще промени света доста по-малко, в сравнение с всички си мислим и ще промени работните места доста по-малко, в сравнение с всички си мислим ", съобщи Алтман по време на спорен панел на Bloomberg в границите на Световния конгрес в Давос.
Алтман промени мнението си за заплахите, които крие изкуственият разсъдък, откакто компанията му попадна в центъра на вниманието на регулаторните органи предходната година, когато държавните управления на Съединени американски щати, Англия, Европейския съюз и други страни се пробваха да наложат ограничавания поради рисковете, които технологиите им съставляват.
В изявление за ABC News през май 2023 година Алтман съобщи, че той и компанията му са " уплашени " от отрицателните страни на свръхинтелигентния AI. " Тук би трябвало да внимаваме. Мисля, че хората би трябвало да са щастливи, че самите ние малко се опасяваме ", разяснява преди месеци той.
Алтман добави, че се опасява от капацитета на AI да бъде употребен за " широкомащабна дезинформация ", като съобщи: " Сега, когато те стават все по-добри в писането на компютърен код, могат да се употребяват и за хакерски атаки. "
През ноември обаче Алтман беше краткотрайно отхвърлен от OpenAI и по-късно още веднъж върнат на поста изпълнителен шеф в фрапантен ход, който разкри опасенията за ръководството на фирмите, стоящи зад най-мощните системи за AI, напомня CNBC.
По време на Световния стопански конгрес в Давос Алтман съобщи, че отстраняването му е било " микрокосмос " на напрежението, с което се сблъскват OpenAI и други лаборатории за изкуствен интелект. " С приближаването на света към AGI се усилват залозите, стресът, равнището на напрежение. Всичко това ще се покачва ", призна той.
Ейдън Гомес, основен изпълнителен шеф и съосновател на стартъпа за изкуствен интелект Cohere, изрази единодушието си с Алтман.
" Мисля, че напълно скоро ще разполагаме с тази технология ", разяснява той пред CNBC на Световния стопански конгрес. Според него, основен проблем с AGI е, че той към момента не е дефиниран като технология.
" На първо място, AGI е супер неразбираемо дефиниран термин. Ако просто го определим като " по-добър от хората в съвсем всичко, което могат да вършат ", склонен съм, че напълно скоро ще получим подобен вид системи ", изясни Гомес.
Въпреки това добави, че даже когато AGI се появи, евентуално ще са нужни " десетилетия ", с цел да могат фирмите в действителност да се интегрират с технологията.
" Въпросът в действителност е какъв брой бързо можем да го приемем, какъв брой бързо можем да го въведем в произвеждане, мащабът на тези модели ни затруднява ", означи Гомес. " И по този начин, фокусът ни в Cohere е върху компресирането на това: да го създадем по-адаптивно и по-ефективно. "
Реалността е, че никой няма визия
Темата за определянето на това какво в действителност е AGI и по какъв начин ще наподобява, затруднява доста специалисти в региона на технологиите с изкуствен интелект.
Лайла Ибрахим, основен действен шеф на лабораторията за изкуствен интелект DeepMind на Гугъл, счита, че никой не може да предвижда с акуратност кой вид AI може да се квалифицира като притежаващ " общ разсъдък " и отбелязва от какъв брой значимо значение е това технологията да се развива безвредно.
" Реалността е, че никой няма визия " по кое време ще се появи AGI, сподели Ибрахим пред CNBC.
" Има спор измежду специалистите по AI, които се занимават с него от дълго време както в промишлеността, по този начин и в фирмите. Вече виждаме области, в които AI има способността да отключи нашето схващане и до момента не сме имали подобен прогрес. Така че, приказваме за AI в партньорство с индивида като инструмент ", изяснява Ибрахим.
" Мисля, че това не отворен въпрос и не знам по какъв начин по-добре да отговоря, в случай че се замислим не за това какъв брой време ще отнеме, а по какъв начин ще наподобява и по какъв начин да подсигуряваме, че сме виновни стопани на технологията? ", добавя тя.
" Губим надзор " или когато машината сама напише кода си
Сам Алтман не е единственият софтуерен водач, който разяснява тематиката за рисковете от AI на Форума в Давос.
Марк Беньоф, основен изпълнителен шеф на Salesforce, съобщи, че софтуерният свят подхваща стъпки, с цел да подсигурява, че конкуренцията за изкуствения разсъдък няма да докара до " миг на Хирошима ".
Много софтуерни водачи предизвестиха, че AI може да докара до " равнище на изгубване ", в което машините ще са толкоз мощни, че ще излязат отвън надзор и ще унищожат човечеството. Илон Мъск, Стив Возняк и някогашният претендент за президент Андрю Янг, приканиха за пауза в развиването на AI, като обявиха, че шестмесечен мораториум би бил потребен, с цел да може обществото и регулаторните органи да наваксат.
Джефри Хинтън, пионер в региона на AI, постоянно именуван " кръстникът на AI ", още предходната година предизвести, че усъвършенстваните стратегии " могат да избягат от надзор, като напишат собствен личен компютърен код, с цел да се модифицират ".
" Един от методите, по които тези системи могат да избягат от надзор, е като напишат собствен компютърен код. Това е нещо, за което би трябвало съществено да се тормозим ", съобщи Хинтън в изявление за CBS през октомври.
Хинтън даже напусна поста на вицепрезидент и инженер в Гугъл, като изрази угриженост по какъв начин компанията се оправя с сигурността и етиката на изкуствения разсъдък.
Според Беньоф, софтуерната промишленост ще би трябвало да подсигурява, че AI ще избегне проблеми като манипулиране на убежденията посредством логаритми за рекомендации по време на изборни акции и нарушение на неприкосновеността на персоналния живот.
" Досега не сме имали подобен тип интерактивност " с принадлежности, основани на изкуствен интелект, изясни Беньоф пред публиката в Давос. " Но към момента не му се доверяваме изцяло. Така че би трябвало да намерим пресечна точка на доверието ".
Ограниченията на LLM
Джак Хидари, основен изпълнителен шеф на SandboxAQ, отхвърля възторга, че AI наближава стадий, в който ще придобие " обща " просветеност. Според него, системите към момента имат доста проблеми за премахване.
Според него, чатботовете като ChatGPT са минали теста, наименуван " игра на реплика " и създаден от английския компютърен академик Алън Тюринг, с цел да се дефинира дали някой поддържа връзка с машина и човек. Но една огромна област, в която AI липсва, е здравият разсъдък.
" Едно от нещата, които видяхме от LLM (големи езикови модели), е, че може да написа фрази за колежани, само че от време на време е доста мъчно в тях да се откри здрав разсъдък. И когато попитате: " Как хората пресичат улицата? ", той даже не може да разпознае пешеходна пътека, за разлика от дребните деца ".
Хидари има сериозна прогноза за това по какъв начин ще се развие технологията на изкуствения разсъдък през 2024 г:
Тази година ще бъде първата, в която модернизиран програмен продукт за връзка с изкуствен интелект ще бъде зареден в хуманоиден робот.
" Ще забележим момента като стартирането на ChatGPT за въплътените хуманоидни роботи с AI през 2024 година, а по-късно и през 2025 година
Това не значи, че роботите ще слязат от конвейера, само че ще ги забележим да вършат демонстрации в действителността, употребявайки своята просветеност, мозък, може би употребявайки LLM и други техники на AI.
Вече 20 компании са получили поддръжка за основаване на хуманоидни роботи, в допълнение, разрушава се, към Tesla и доста други, тъй че мисля, че тази година ще се извърши превръщане ", добавя Хидари.
Източник: profit.bg
КОМЕНТАРИ




