Шта каже струка, да ли Гуглов четбот расуђује као људско биће, како тврди суспендовани инжењер

0
програмери, информациони

EPA-EFE/SASCHA STEINBACH

Компјутерски четбот ЛаМДА (Language Model for Dialog Applications) размишља и расуђује као људско биће, тврди суспендовани „Гуглов“ инжењер. То тврди и робот, а да ли је то могуће објашњава др Јелена Митровић, старији истраживач у Институту за вештачку интелигенцију Србије и вођа истраживачке групе Обрада природног говора.

Блејк Лемоан, инжењер у „Гугловом“ сектору Одговорне вештачке интелигенције, описао је систем ЛаМДА на којем је радио од прошле јесени као разуман, са перцепцијом и способношћу да изрази мисли и осећања као дете.

Докторка Јелена Митровић наглашава да је важно имати у виду да је у последњих шест месеци објављено бар пет језичких модела, а о овом моделу се толико расправља само због тога што је инжењер изашао у јавност са тако „епохалном“ изјавом да је модел разуман.

„Имала сам прилику, сасвим случајно, да можда минут пошто се његова објава појавила на друштвеној мрежи Твитер, видим много коментара професора из моје области и да је кренула јако жива расправа. Али надам се да ћу успети да објасним да то и није тако епохално откриће“, додаје Митровићева.

ЛаМДА је, у ствари, комбинација великог броја језичких неуронских модела који су искомбиновани на начин који омогућава да тај модел води дијалог. Осмишљено је да ЛаМДА буде систем за отворени дијалог, односно да може да води конверзацију на било коју тему.

ПОДРЖИТЕ НЕЗАВИСНО НОВИНАРСТВО
Помозите рад Васељенске према својим могућностима:
5 €10 €20 €30 €50 €100 €PayPal
Заједничким снагама против цензуре и медијског мрака!

„Дакле, можете са њим да разговарате о филму, музици, а можете да разговарате и о неким личним темама као што је показано на овом примеру. ЛаМДА јесте врста вештачке интелигенције, алгоритам који се користи у вештачкој интелигенцији“, напомиње Јелена Митровић.

Прочитајте још:  Талибани законом забранили женама да говоре у јавности

Модел има особине личности особе на чијим je текстовима трениран
Дешава се да модел показује неке особине личности особe на чијим је текстовима и транскриптима разговора био трениран, и то се виђа у тако великим моделима, додаје Митровићева.

Језички модел је, у ствари, нека врста статистичке машине. Неопходно је да се модел тренира на огромној количини података, а у случају компаније „Гугл“, зна се да они имају приступ свим и историјским и тренутним подацима на интернету. Имају могућности и рачунарску моћ да прикупе и чувају те податке и зато могу да направе моделе као што је ЛаМДА.

„Суштина је да научимо модел да размишља као човек на основу текстова који су му дати као тренинг. Овај модел је добар зато што има велику базу података на којима је трениран. Све те текстове са друштвених медија, транскрипте дијалога, затим сценарија из филмова. Имамо научнофантастичне филмове на којима је трениран и зато су неки од одговора заправо личили на мало застрашујуће сцене из тих филмова, а то је само зато што је он имао приступ тим подацима. Све оно што нам даје као излаз дешава се на основу статистичке вероватноће коју је сам модел прорачунао, да ако унесемо неки текст, највероватније ће бити да ће излаз бити неки други текст“, објашњава др Митровић.

Из транскрипта разговора Блејка Лемоана са Ламдом могли смо да видимо да је некада у питању само једна реченица, а некада цео пасус, у зависности од тога шта је било тражено.

Да ли неуронске мреже корачају ка свести

Потпредседник „Гугла“ председник Гуглове организације за вештачку интелигенцију одбацили су тврдњу да је ЛаМДА разуман, али и потврдили да неуронске мреже које опонашају људски мозак полако корачају ка свести.

Прочитајте још:  Хорвату су за све криви Срби

Блејк Лемоан није радио на овом моделу, већ је био део тима од педесетак инжењера који је имао задатак да провери да ли ЛаМДА даје неке дискриминаторне одговоре и изјаве, да ли избацује говор мржње и да ли постоје неки етички проблеми.

„Гугл се труди да избегне такве ситуације и ова тренутна прича за њих није добра, јер се они, као и све велике компаније, труде да детаљно истестирају, јер већина тих модела је доступна јавно“, истиче докторка.

На пример, на Институту за вештачку интелигенцију у Србији се већ неколико година ради нешто слично за српски језик на моделу који је јавно доступан.

„Могуће је да ћемо у неком тренутку имати сценарио у коме ће алгоритам постати у неку руку свестан, али за сада, мислим да смо доста далеко од тога“, сматра др Јелена Митровић.

Етика у вештачкој интелигенцији

Прошле године, 25. новембра Унеско је донео препоруке о етици у вештачкој интелигенцији, а Република Србија је једна од земаља која је прихватила те препоруке и свакако ће их се придржавати.

Лемоан каже да нема научног оквира за тврдњу да је ЛаМДА систем разуман и да „Гугл“ није ни дозволио да се изгради тај оквир. Он је као веома религиозна особа желео да добије додатан новац од компаније и тим који ће истраживати овај модел и његове могућности.

„То да не постоји оквир је веома тачно, зато што ни у једној науци – филозофији, когнитивним наукама, медицини, рачунарским наукама – немамо јасну дефиницију нити доказ шта је тачно свест, не знамо зашто постоји и како настаје. Док не будемо знали, у смислу физиологије, у смислу људског бића како свест настаје и зашто постоји, нећемо моћи ни да тестирамо на системима вештачке интелигенције, и то је оно на шта се овде мислило“, закључује др Јелена Митровић, старији истраживач у Институту за вештачку интелигенцију Србије.

Прочитајте још:  САД побољшавају вештачку интелигенцију у војне сврхе

РТС

За више вести из Србије и света на ове и сличне теме, придружите нам се на Фејсбуку, Твитеру, Инстаграму, Вајберу, Телеграму, Вконтакту, Вотсапу и Јутјубу.

Будите први који ћете сазнати најновије вести са Васељенске!

СВЕ НАЈНОВИЈЕ ВЕСТИ НА ТЕЛЕГРАМ КАНАЛУ

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *