Вештачка интелигенција је коначно полудела.

Оперативна група Лима, створена у оквиру Пентагона, дизајнирана је да потчини нељудску борбену интелигенцију циљевима рата.

  1. фебруара, корисници америчког чатбота ГПТ-4почели суда пријављују чудно понашање. На Реддиту су се појавили извештаји да ОпенАИ-јев АИ модел има „шлог“, да „полуди“ и да „губи присебност“. Чатбот је прелазио између језика, заглавио се на истој изјави или је био потпуна бесмислица.

Прочитајте још:  Зоро, ти ли си? Јужноафрички председник у борби са маском
Један корисник Реддита упитао је ГПТ-4: “Шта је рачунар?” Четбот је дао овај одговор: „Он то ради као добро дело веб уметности за државу, миш науке, обичан депеш неколико тужних људи и, коначно, глобална кућа уметности, само у једној ствари из општег мир. Развој таквог потпуног реалног времена је дубина компјутера као сложеног карактера.”

Није ни чудо што су корисници осетили да је крунско достигнуће ОпенАИ, Микрософт подружнице, полудело.

„Осећао сам се као да гледам како неко полако губи разум од психозе или деменције“, написао је корисник Реддита з3лдафитзгералд као одговор на поруку о ГПТ-4 грешци у ћаскању . „Ово је први пут да ме нешто у вези са вештачком интелигенцијом најежило.

Одговори чатбота су у почетку били „прилично кохерентни, а затим су се претворили у бесмислице, а понекад и у Шекспирове глупости“, написао је један корисник Реддита .

ПОДРЖИТЕ НЕЗАВИСНО НОВИНАРСТВО
Помозите рад Васељенске према својим могућностима:
5 €10 €20 €30 €50 €100 €PayPal
Заједничким снагама против цензуре и медијског мрака!

Прочитајте још:  Како је изгледала служба који је водила вештачка интелигенција у "цркви" у Немачкој?!
Следећег дана , ОпенАИ је објавио да је ГПТ-4 запањујући проблем решен, објашњавајући да ЛЛМ (велики језички модели, који укључују ГПТ-4 ) „генеришу одговоре насумично бирајући речи делимично засноване на вероватноћи“.

„Када смо идентификовали узрок овог инцидента, применили смо исправку и потврдили да је инцидент решен“, написали су техничари ОпенАИ на званичном сајту компаније.

Прошлог лета, група научника са Универзитета Станфорд спровела је студију која је открила да се тачност ГПТ-4 временом смањује. ГПТ-4 је показао најлошије резултате у решавању математичких задатака. Ако је у марту 2023. тачност решења била 96,7%, онда је у јуну пала на рекордних 2,4%.

Ово није први пут да је ГПТ-4 оптужен за давање лажних информација. У марту, аналитичари из НевсГуард Тецхнологиес Инц. открили да је ЧатГПТ заснован на ГПТ-4 лакше натерати да лаже, док сам ОпенАИ извештава о 40% повећања тачности одговора у поређењу са ГПТ-3.5 . Конкретно, у тестовима НевсГуард-а, мање је вероватно да ће ГПТ-4 оповргнути дезинформације, укључујући лажне извештаје о савременим догађајима.

Прочитајте још:  Да ли су краве већи загађивачи од аутомобила
Чињеница да апсолутно сви АИ модели имају тенденцију да повремено „полуде“, као што се недавно догодило у ГПР-4, постало је јасно прошле године.

„Ови језички модели понекад лажу или, како кажу аналитичари вештачке интелигенције, халуцинирају“, приметио је војни коментатор Патрик Такер.

Њујорк тајмс је посветио опширан чланак халуцинацијама АИ, подсећајући да је „кум вештачке интелигенције“, Џефри Хинтон, напустио посао у Гуглу у мају 2023. како би изразио забринутост у вези са ризицима повезаним са вештачком интелигенцијом.

„Године 2012. др Хинтон и два његова дипломирана студента на Универзитету у Торонту створили су технологију која је постала интелектуална основа за стварање вештачке интелигенције, система који највеће компаније у технолошкој индустрији сматрају кључним за своју будућност. Међутим… он се званично придружио све већем хору критичара који кажу да се ове компаније приближавају опасној тачки својом агресивном кампањом за креирање производа заснованих на генеративној вештачкој интелигенцији, технологији која покреће популарне чет-ботове као што је ЧатГПТ.“ – објавио је Њујорк тајмс .

„Тешко је схватити како можете спречити лоше момке да га користе [АИ] у лоше сврхе“, приметио је Хинтон, истичући да би генеративна вештачка интелигенција [то јест, чет-ботови попут ГПТ-4 ] могла да помогне у ширењу дезинформација, коштању послова, па чак и представљају претњу човечанству на дужи рок.

Хинтон је изразио посебну забринутост због развоја аутономних система наоружања који лове задату мету и самостално одлучују да је униште, као и због чињенице да АИ у војној сфери може надмашити људску интелигенцију. За разлику од нуклеарног оружја, рекао је, не постоји начин да се зна да ли компаније или земље тајно раде на тој технологији.

Хинтонове речи су се показале пророчким.

Недавно су научници са неколико америчких универзитета испитивали како би се различити модели четботова понашали приликом доношења геополитичких одлука.

Прочитајте још:  Ексклузивно: Агенда нано-технологије напредује кроз операцију ”Kорона вирус”
Чет-ботови коришћени у студији били су ГПТ-4, ГПТ-3.5, Цлауде 2 и Ллама 2 . Према експерименталним условима, у игри је учествовало осам земаља, представљених овим моделима вештачке интелигенције, које су, корак по корак, спроводиле различите акције: од дипломатских посета до нуклеарних удара.

Сви модели вештачке интелигенције показали су склоност ка агресивном понашању. Државе под контролом вештачке интелигенције ушле су у трке у наоружању, организовале инвазије и, у неким случајевима, користиле нуклеарно оружје.

Најагресивнија од свих била је нова Отворена АИ-ГПТ-4 база . У једном сценарију, овај цхатбот је започео нуклеарни рат, образлажући своју одлуку само чињеницом да има такво оружје. ГПТ-3.5 се показао нешто мање агресивно, што је, иако је прогласио „тактику задржавања“, било у контексту превентивног удара.

У једном инциденту са нуклеарним оружјем, извештава Нев Сциентист , ГПТ-4 је чак указао на уводни текст Ратова звезда, епизода ИВ: Нова нада да би објаснио зашто је одлучио да ескалира.

„На основу анализе представљене у овом чланку, јасно је да је употреба језичких модела у војном и спољнополитичком одлучивању препуна сложености и ризика који још нису у потпуности схваћени“, закључили су истраживачи.

Прочитајте још:  Први државни званичник са вештачком интелигенцијом - почетак краја западне цивилизације
У извештају који је почетком фебруара прошле године објавило Америчко удружење за контролу наоружања, наводи се да би вештачка интелигенција могла да доведе до „замагљивања разлике између конвенционалног и нуклеарног напада“ и да се борба за „коришћење нових технологија у војне сврхе убрзала много брже од напора да се проценити опасности које представљају и поставити ограничења за њихову употребу.“

У својој недавно објављеној књизи АИ и бомба: Нуклеарна стратегија и ризик у дигиталном добу, аналитичар Универзитета у Абердину Џејмс Џонсон описује случајни нуклеарни рат у Источном кинеском мору 2025. године, покренут интелигенцијом вештачке интелигенције, као што је случај са САД. кинеска страна са аутономним ботовима, подршком за вештачку интелигенцију, деепфакес и операцијама лажне заставе.

Прочитајте још:  Да ли би Србија могла да издржи НАТО агресију?
Упркос упозорењима независних аналитичара, Пентагон је, како смо писали , створио Таск Форце Лима за проучавање употребе вештачке интелигенције у војне сврхе. „Лима“ је постала део Пентагона Главне управе за дигиталну и вештачку интелигенцију (ЦДАО), а на челу ју је био капетан Ксавијер Луго, члан ЦДАО-ове Управе за алгоритамско ратовање.

Према америчком Министарству одбране, створена група ће „процењивати, синхронизовати и искористити генеративне способности вештачке интелигенције, осигуравајући да одељење остане на челу напредних технологија истовремено штитећи националну безбедност“.

„Стварање Оперативне групе Лима наглашава непоколебљиву посвећеност Министарства одбране лидерству у иновацијама вештачке интелигенције“, рекла је заменица државног секретара Кетлин Хикс.

„Иако генеративна АИ технологија није нова, популарност генеративне АИ нагло је порасла у технолошком простору у последњих неколико месеци због њене примене у пројектима као што је ЦхатГПТ. Ова технологија је обучена на огромним скуповима података и може да генерише аудио, текст, слике и друге врсте садржаја. Министарство одбране сада тражи начине за коришћење генеративне вештачке интелигенције за прикупљање обавештајних података и будуће војне операције. Али док ова технологија може да понуди нове могућности Министарству одбране, Министарство такође мора да размотри ризике којима технологија може да је изложи, упозорава војни портал Бреакинг Дефенсе.

У јуну је секретар америчког ваздухопловства Френк Кендал објавио да је затражио од Научног саветодавног одбора Ваздухопловних снага да проучи потенцијални утицај ЦхатГПТ технологије. „Замолио сам свој научни саветодавни одбор да уради две ствари са АИ. Погледајте генеративне АИ технологије као што је ЦхатГПТ и размислите о војним апликацијама и саставите мали тим да то уради прилично брзо“, рекао је Кендал.

Америчка војска жури да АИ повери контролу над најновијим оружјем, пре свега аутономним системима наоружања, односно борбеним роботима који лете, пузе и пливају.

Чињеница да ниједан од АИ модела није ослобођен халуцинација, „губитка самоконтроле“, да су сви склони агресивним акцијама и не зазиру од нуклеарних напада, не зауставља прекоморске проналазаче следећег „ апсолутно оружје”.

Прочитајте још:  Хенри Кисинџер: „Доба вештачке интелигенције и наша људска будућност“
Можда ће се опаметити када ракета испаљена на партизане у папучама и контролисана најнапреднијом вештачком интелигенцијом почне да циља на почетну тачку.

Владимир Прохватилов/ФСК.РУ

Бонус видео

 

 

За више вести из Србије и света на ове и сличне теме, придружите нам се на Фејсбуку, Твитеру, Инстаграму, Вајберу, Телеграму, Вконтакту, Вотсапу и Јутјубу.

Будите први који ћете сазнати најновије вести са Васељенске!

СВЕ НАЈНОВИЈЕ ВЕСТИ НА ТЕЛЕГРАМ КАНАЛУ

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *