Стивън Хокинг отправил последно съдбовно предупреждение към човечеството преди смъртта си.
Изминаха шест години, откакто през 2018 г. почина световната суперзвезда на физиката, професор Стивън Хокинг. Оказва се, че дори и той е знаел за опасностите от генеративния изкуствен интелект.
Дълго време преди ChatGPT и системите за автоматизация да станат ежедневие за повечето от нас, беше много по-трудно да се делегират и изпълняват задачи.
Но дали всичко това е така, както се представя?
Много хора са съгласни, че възходът на ИИ ще се окаже като сцена от „Аз, роботът“, но как ще изглежда това за работното място?
Сега става ясно, че Хокинг е изпреварил всички с прогнозата си.
През 2012 г. той е завил пред BBC, че „развитието на цялостен изкуствен интелект може да означава край на човешката раса“.
По време на интервюто с него изкуственият интелект е бил в начален стадий и Хокинг вече е виждал мощта, която той може да притежава. Особено способността му да надмине човешкия интелект.
Той продължава: „Той ще започне да се развива сам и ще се препроектира с все по-голяма скорост. Хората, които са ограничени от бавната биологична еволюция, не биха могли да се конкурират с него и ще бъдат изместени.“
През 2015 г. той беше един от 100-те експерти, които подписаха отворено писмо до ООН, предупреждаващо за опасностите от неконтролираното развитие на ИИ.
Към него се присъедини основателят на SpaceX Илон Мъск в опит да се създадат строги правила за ИИ.
След това, една година преди смъртта си през 2017 г., той предупреди човечеството за опасностите от допускането на по-нататъшно развитие на ИИ по време на интервю за списание Wired.
Той каза: „Страхувам се, че ИИ може да замени хората напълно.“
Нека бъдем честни, ако толкова умен човек като Хокинг ни казва, че ИИ ще доведе до края на времената, вероятно трябва да го послушаме.
Той дори изказва предположение, че можем да станем „тъпи като камъни“ в сравнение с машините, ако не бъдем нащрек.
Това описва в книгата си „Кратки отговори на големите въпроси“, публикувана няколко месеца след смъртта му.
Той пише: „Възможно е да се изправим пред експлозия на интелекта, която в крайна сметка да доведе до появата на машини, чийто интелект надвишава нашия с повече, отколкото нашият надвишава този на охлювите.
Изкушаващо е да отхвърлим идеята за високоинтелигентни машини като обикновена научна фантастика, но това би било грешка – и потенциално най-лошата ни грешка в историята.“
Ако погледнем състоянието на цифровата ера, в която живеем в момента, ИИ се разраства с бързи темпове.
Вече не само можем да използваме OpenAI за създаване на пълнометражни образователни статии, новини и сценарии за филми, но той непрекъснато се учи от информацията, която му подаваме.
Разработва се и нов инструмент за преобразуване на текст във видео, наречен Sora. Какво ли ще представлява след 20 години, след като бъде захранен с огромно количество знания и данни?
Професор Стивън Хокинг е английски физик-теоретик, космолог, астрофизик и популяризатор на науката, автор на книги и статии за новите открития и идеи за Вселената и нейното зараждане. Най-известният му труд е популярната „Кратка история на времето“ (A Brief History of Time, 1988), която му спечелва международна известност.
До 2009 г. е Лукасов професор по математика на Кеймбриджкия университет (пост, заеман някога от Исак Нютон). Занимава се основно с космология и квантова механика, известен е и като популяризатор на науката. Въпреки тежкото си заболяване – амиотрофична латерална склероза (АЛС) – Хокинг не престава да се труди в областта на науката, показвайки, че физическото увреждане не прави никого по-малко способен да твори.