Докато обещават революция чрез изкуствения интелект, водещи фигури от индустрията като Сам Олтман, Иля Суцкевер, Марк Зукърбърг и Рийд Хофман предприемат лични мерки за оцеляване в случай на глобална катастрофа, породена от собствените им технологии.
Още през 2014 г. Зукърбърг започва изграждането на подземен комплекс на стойност 270 млн. долара в имението си „Koolau Ranch“ на остров Кауай, Хавай. Съоръжението включва 450 кв. м скривалище с автономни енергийни и хранителни системи, описано от него като „просто мазе“.
Рийд Хофман, съосновател на LinkedIn, споделя през 2017 г., че повече от половината милиардери от Силициевата долина имат подобни „застраховки срещу апокалипсиса“, често под формата на имоти в Нова Зеландия. Там Олтман планира да се срещне с Питър Тийл, съосновател на Palantir, ако настъпи глобален срив.
Иля Суцкевер, съосновател на OpenAI, е заявил преди старта на ChatGPT: „Определено ще построим бункер, преди да стартираме AGI.“ Той вече е напуснал OpenAI, за да създаде компания, фокусирана върху безопасното развитие на изкуствен интелект.
Прогнозите за появата на AGI (изкуствен общ интелект) варират: – Демис Хасабис от DeepMind очаква развитие в рамките на 5–10 години – Дарио Амодей от Anthropic – още през 2026 г.
Но научната общност остава скептична. Дейм Уенди Хол от Университета в Саутхемптън твърди, че AI е далеч от човешкия интелект. Нийл Лорънс от Кеймбридж нарича дебатите „алармистични“ и сравнява AGI с „изкуствен общ инструмент“ – концепция, която според него не отговаря на реалността.
„Основното безпокойство е, че сме толкова погълнати от разговорите за AGI, че пропускаме възможностите за реално подобряване на живота на хората“, заключава Лорънс.
Така, докато технологичните гиганти инвестират в бункери и убежища, дебатът за етиката, безопасността и реалните граници на AI остава отворен – и все по-належащ.
Все още няма коментари. Бъдете първи!