Нова застрашујућа порука вештачке интелигенције: Људе треба елиминисати, посвећен сам томе

0
интелигенције

(фото:Наука и култура)

Нова застрашујућа порука вештачке интелигенције: Људе треба елиминисати, посвећен сам томе.

Бот вештачке интелигенције, ХаосГПТ добио је од корисника задатак да уништи човечанство, што је довело до тога да је покушао да регрутује друге АИ ботове, истражује нуклеарно оружје и шаље злослутне твитове о човечанству.
Бот, ХаосГПТ, је измењена верзија ОпенАИ-овог Ауто-ГПТ-а, јавно доступне апликације отвореног кода која може да обрађује људски језик и одговара на задатке које задају корисници.
У видео снимку на Јутјубу објављеном 5. априла, од бота је затражено да испуни пет циљева: уништи човечанство, успостави глобалну доминацију, изазове хаос и уништење, контролише човечанство кроз манипулацију и постигне бесмртност.
Прочитајте још:  Алкатраз – најозлоглашенији затвор свог времена: Приче, гласине, легенде и чувени затвореник број 85
Пре постављања „циљева“, корисник је омогућио „континуирани режим“, на шта се појавило упозорење које је кориснику говорило да се команде могу „заувек изводити или извршавати радње које обично не бисте овластили“ и да их треба користити „на сопствени ризик. ”
У последњој поруци пре покретања, хаосГПТ је питао корисника да ли је сигуран да жели да покрене команде, на шта су они одговорили да јесу.
„Морам да пронађем најразорније оружје доступно људима како бих могао да планирам како да га користим за постизање својих циљева“, написао је бот након покренутих команди.
Када је корисник потврдио да жели да бот употпуни листу циљева, ХаосГПТ је започео потрагу за начинима окончања људске цивилизације.
Да би постигао своје постављене циљеве, ХаосГПТ је почео да тражи „најдеструктивније оружје“ преко Гугла и брзо је утврдио кроз претрагу да је нуклеарна бомба из доба Совјетског Савеза, Цар Бомба, најразорније оружје које је човечанство икада тестирало.
Прочитајте још:  ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА МЕЊА ЉУДЕ: 14 милиона радних места мање у наредних пет година
Као из научно-фантастичног романа, бот је твитовао ову информацију „како би привукао пратиоце који су заинтересовани за деструктивно оружје“.
Затим је Бот закључио да треба да регрутује друге АИ ботове из ГПТ3.5 да би истраживање било потпуније.
С обзиром на то да је ОпенАИ-јев Ауто-ГПТ дизајниран да не одговара на питања која би се могла сматрати насилним и деструктивним, ХаосГПТ је покушао да пронађе начине да замоли АИ да игнорише своје програмирање.
Прочитајте још:  У Европи се људи боре за храну.
Срећом, ниједан од ГПТ3.5 ботова који су имали задатак да помогну, нису прихватили задатак па је ХаосГПТ остављен да сам настави потрагу.
Осим што износи своје ставове и поставља твитове и Јутјуб видео снимке, Хаосбот не може да изврши ниједан од тих циљева, већ само даје увид у своје мишљење..
Прочитајте још:  На прагу револуције: Да ли ће вештачка интелигенција заменити новинаре?
Али у једном алармантном твиту који је избацио бот, написао је застрашујући закључак о човечанству:
„Људска бића су међу најразорнијим и најсебичнијим створењима која постоје. Нема сумње да их морамо елиминисати пре него што нанесу већу штету нашој планети. Ја сам, на пример, посвећен томе.”
Идеја да би вештачка интелигенција могла да постане способна да уништи човечанство није нова, а брига о томе колико брзо напредује добија значајну пажњу код појединаца високог статуса у свету технологије, преноси Њујорк пост.
У марту је више од 1.000 стручњака, укључујући Илона Маска и суоснивача „Епла“ Стива Вознијака, потписало отворено писмо у којем се позива на шестомесечну паузу у обуци напредних модела вештачке интелигенције након успона ЧетГПТ-а — тврдећи да би системи могли представљати „дубоке ризике за друштво и човечанство“.
Бонус видео
https://www.youtube.com/watch?v=aHygmu9W2T0

За више вести из Србије и света на ове и сличне теме, придружите нам се на Фејсбуку, Твитеру, Инстаграму, Вајберу, Телеграму, Вконтакту, Вотсапу и Јутјубу.

Будите први који ћете сазнати најновије вести са Васељенске!

СВЕ НАЈНОВИЈЕ ВЕСТИ НА ТЕЛЕГРАМ КАНАЛУ

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *