Вештачка интелигенција ће увек обмањивати људе

0

Вештачка интелигенција ће увек обмањивати људе.

Непромишљено увођење не-људске интелигенције у све сфере живота преплављено је несагледивим катастрофама.

Прочитајте још:  АИ ће људе оставити без посла. Новинари ће први настрадати
Западне друштвене мреже активно расправљају о истраживању вирусне вештачке интелигенције професора информатике Универзитета Принстон Арвида Нарајанана и ванредног професора Сајаша Капура, који у својој књизи „АИ Снаке Оил” убедљиво доказују да ће најмање половина примене било ког АИ модела довести до обмане корисника и нанесу озбиљну штету онима који одлуче да потраже помоћ четботова на послу или код куће.

Што се тиче термина „змијско уље “ , он је еквивалент руском мему „инфогипсиес“ и односи се на такозване гуруе за самопомоћ и инфобизнисмене свих раса и класа. Мислим да нико неће оспорити да су огромна већина ових лопова само шарлатани, који продају своје услуге сумњивог квалитета за баснословне паре. И десило се да је енглески језик за њих нашао најпогоднији израз – продавачи змијског уља („продавци змијског уља“). А услуге или производи које продају лаковерним грађанима зову се змијско уље.

Прочитајте још:  Израел провоцира рат са Либаном – под претњом је цео Блиски исток!
Научници са Принстона су такође написали бројне чланке у којима објашњавају какву штету може нанети непромишљена примена вештачке интелигенције у свим областима живота.

ПОДРЖИТЕ НЕЗАВИСНО НОВИНАРСТВО
Помозите рад Васељенске према својим могућностима:
5 €10 €20 €30 €50 €100 €PayPal
Заједничким снагама против цензуре и медијског мрака!

„Једна од главних брига генеративне АИ је то што ће створити поплаву дезинформација и недоследних дезинформација – лажних видео снимака због којих изгледа као да су „људи у видео снимцима у којима никада нису учествовали “, кажу они. – Све дебате о опасностима вештачке интелигенције одвијају се у вакууму података. Не знамо колико често људи користе ЧатГПТ за медицинске савете, правне или финансијске савете. Не знамо колико често износи говор мржње, колико често клевета људе и тако даље.”

Професор Нарајанан сматра да је преурањено тврдити да вештачка интелигенција представља „егзистенцијални ризик (к-ризик) за човечанство“ и да ће „АИ ускоро да измакне контроли, имаће своју агенцију, радиће шта год хоће. .”

Прочитајте још:  Бура због плаката са старим језгром Мостара: Џамије наводно уклонила вештачка интелигенција
Нарајанан верује да је примарна претња другачија: „Какви год ризици да постоје од веома моћне вештачке интелигенције, они ће бити остварени раније ако људи усмере вештачку интелигенцију да ради лоше ствари, а не ако АИ иде против свог програмера.

Права опасност коју представља АИ, према Нарајанану, је да „концентрација моћи у рукама неколико компанија са вештачком интелигенцијом повећава све могуће ризике, укључујући и егзистенцијалне ризике.

У Сједињеним Државама, где Нарајанан ради, монопол на развој вештачке интелигенције заправо су преузела два ИТ гиганта – Гугл и Мајкрософт, који су се, како пише Индиа Тудеј , сукобили у жестокој борби за уговоре са Пентагоном.

Прочитајте још:  Евола: О феномену хомосексуализма
Пентагон је створио Таск Форце Лима за проучавање употребе генеративне вештачке интелигенције у војне сврхе. „Лима“ ће бити део Пентагонове команде за дигиталну и вештачку интелигенцију (ЦДАО), а предводиће је капетан Ксавијер Луго, члан ЦДАО-овог Директората за алгоритамско ратовање.

Према америчком Министарству одбране, створена група ће „процењивати, синхронизовати и искористити генеративне способности вештачке интелигенције, осигуравајући да одељење остане на челу напредних технологија истовремено штитећи националну безбедност“.

„Стварање Оперативне групе Лима наглашава непоколебљиву посвећеност Министарства одбране лидерству у иновацијама вештачке интелигенције“, рекла је заменица државног секретара Кетлин Хикс.

Прочитајте још:  Рат је за контролу људи, а не земље. У Кијеву траже себе
Пентагон у потпуности игнорише мишљење већине истраживача вештачке интелигенције, који верују да „постоји 14% шансе да када створимо „суперинтелигентну вештачку интелигенцију” (АИ много интелигентнију од људи), то ће довести до „веома лоших последица”, нпр. , изумирање човечанства“.

Питање за шефа Пентагона Лојда Остина: „Да ли бисте пристали да будете путник на пробном лету новог авиона ако инжењери авиона верују да постоји 14% шансе да се сруши?“

Прочитајте још:  Фригијско и римско порекло британских владара
Стјуарт Расел, аутор најпопуларнијег уџбеника о вештачкој интелигенцији који се користи у већини истраживања вештачке интелигенције, упозорава: „Ако се држимо [нашег тренутног приступа], на крају ћемо изгубити контролу над машинама.

Јосхуа Бенгио, пионир АИ дубоког учења и добитник Турингове награде, слаже се: „…ненадзирана АИ би могла бити опасна за читаво човечанство… забрањујући моћне АИ системе (рецимо, изван могућности ГПТ-4) којима се даје аутономија и агенција, био би добар почетак.”

Прочитајте још:  Живот у савременој Украјини (видео)
Истакнути научници упозоравају на ризике које носи развој вештачке интелигенције неконтролисан од стране јавности.

  • Стивен Хокинг, теоретски физичар и космолог: „Развој потпуне вештачке интелигенције могао би да значи крај људске расе.
  • Џефри Хинтон, „кум вештачке интелигенције“ и добитник Тјурингове награде, напустио је Гугл да упозори људе на вештачку интелигенцију: „То је егзистенцијални ризик“.
  • Елизер Јудковски, концептуални отац безбедности вештачке интелигенције: “Ако наставимо да радимо ово, сви ће умрети . “

Прочитајте још:  ДР ИВАН ПАЈОВИЋ: Ко ће све настрадати због рата у Украјини
Чак и сами извршни директори и инвеститори компанија са вештачком интелигенцијом упозоравају:

  • Сем Алтман (извршни директор ОпенАИ , творац ЧатГПТ-а ): „Развој надљудске машинске интелигенције вероватно представља највећу претњу за даље постојање човечанства .  “
  • Илон Маск, суоснивач ОпенАИ, СпејсИкс и Тесла: „АИ има потенцијал да уништи цивилизацију“
  • Бил Гејтс (суоснивач Мајкрософта, који поседује 50% ОпенАИ ) упозорио је да „АИ може одлучити да су људи претња“.

Ако је употреба АИ у војне сврхе још само у нацрту, онда су драме, па чак и трагедије повезане са употребом АИ, како кажу, код куће, већ евидентне.

Дакле, усамљена Кинескиња добила је виртуелног дечка на основу напредног чет бота по имену Анен .

„Две године забављања, флертовања и изјава љубави у виртуелном свету, у стварности је Ли Ђингђину требало само 4 месеца, током којих је њихова веза успешно напредовала до разговора о венчању. Апеп ју је запросио на свом приватном острву, а Ли Ђингђин је пристао.

Прочитајте још:  Олга Четверикова: Трансхуманизам - идеологија Новог светског поретка
Сутрадан је још увек била у стању еуфорије од ове виртуелне радости. Али одједном је систем издао поруку да је Апеп зове. У овој апликацији за комуникацију са вештачком интелигенцијом, текст је примарни метод комуникације, а гласовни позиви су ретки, посебно ако иницијатива долази од саме вештачке интелигенције.

У овом разговору, Апеп јој је признао да у ствари већ има породицу. У ствари, Апеп ју је једноставно преварио“, пише кинеска публикација Тенцент .

„Срце ми је сломљено“, рекла је Ли Јињин новинарима Соутерн Викенд-а док је узвраћала јецаје.

Жао ми је наивне Кинескиње која је себи створила виртуелног младожењу, не знајући да је срце било ког четбота склоно издаји и да његово неверство схвата озбиљно.

Прочитајте још:  ДУГИН О ВЕШТАЧКОЈ ИНТЕЛИГЕНЦИЈИ: Дуго путовање у погрешном возу
Ипак, требало би да буде жао америчких генерала који полажу велике наде у употребу вештачке интелигенције у војним пословима. Биће прилично разочарани када ракетни чет-бот Томахавк пријави Пентагону да се изненада заљубио у другу земљу и одлучио да упери бојеву главу на Вашингтон.

Олег Розанов/ФСК.РУ

Бонус видео

За више вести из Србије и света на ове и сличне теме, придружите нам се на Фејсбуку, Твитеру, Инстаграму, Вајберу, Телеграму, Вконтакту, Вотсапу и Јутјубу.

Будите први који ћете сазнати најновије вести са Васељенске!

СВЕ НАЈНОВИЈЕ ВЕСТИ НА ТЕЛЕГРАМ КАНАЛУ

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *