11 полезных применений кофейных фильтров, не имеющих ничего общего с кофе
Nov 08, 20232023 год
Oct 28, 2023Рейтинги перспективных игроков драфта НБА 2023 года: отчеты о разведке Виктора Вембаньямы и других ведущих игроков на Big Board
Dec 20, 2023Рейтинги перспективных игроков драфта НБА 2023 года: отчеты о разведке Виктора Вембаньямы и других ведущих игроков на Big Board
May 26, 2023Обязательные мини-лагеря НФЛ 2023 года: крупнейшие сюжетные линии для 49ers, Cowboys и 7 других команд начнутся на этой неделе
Jul 23, 2023Бумажные заявления: ИИ может быть цивилизацией
Если инопланетяне существуют, почему они до сих пор не связались с нами? Возможно, утверждается в новой статье, они — или, в будущем, мы — неизбежно будем уничтожены сверхсильным искусственным интеллектом, став жертвами нашего собственного стремления создать высшее существо.
Это потенциальный ответ на парадокс Ферми, в котором физик Энрико Ферми и последующие поколения задают вопрос: «Где все?» — исходит от исследователя Национального разведывательного университета Марка М. Бэйли, который в новой, еще не рецензируемой статье утверждает, что продвинутый ИИ может представлять собой именно тот катастрофический риск, который может уничтожить целые цивилизации.
Бэйли называет сверхчеловеческий ИИ потенциальным «Великим фильтром», потенциальным ответом на парадокс Ферми, в котором некая ужасная и неизвестная угроза, искусственная или естественная, уничтожает разумную жизнь, прежде чем она сможет вступить в контакт с другими.
«Для всех, кого беспокоит глобальный катастрофический риск, остается один отрезвляющий вопрос», — пишет Бэйли. «Великий фильтр остался в нашем прошлом или это вызов, который нам еще предстоит преодолеть?»
Мы, люди, отмечает исследователь, «ужасно умеем интуитивно оценивать долгосрочный риск», и, учитывая, сколько предупреждений уже было сделано об ИИ – и его потенциальной конечной точке, общем искусственном интеллекте или ОИИ – вполне возможно, утверждает он, что возможно, мы вызываем собственную гибель.
«Один из способов изучить проблему ИИ — через призму аргумента о втором виде», — продолжает статья. «Эта идея рассматривает возможность того, что продвинутый ИИ будет эффективно вести себя как второй разумный вид, с которым мы неизбежно будем делить эту планету. Учитывая, как все происходило в последний раз, когда это произошло — когда современные люди и неандертальцы сосуществовали — потенциальные результаты мрачны».
Еще более страшной, отмечает Бэйли, является перспектива почти богоподобного искусственного сверхинтеллекта (ИСИ), в котором ОИИ превосходит человеческий интеллект, поскольку «любой ИИ, способный улучшить свой собственный код, скорее всего, будет мотивирован на это».
«В этом сценарии люди откажутся от своего положения доминирующего разумного вида на планете с потенциальными катастрофическими последствиями», — предполагает автор. «Как и в случае с неандертальцами, наш контроль над нашим будущим и даже самим нашим существованием может закончиться с появлением более разумного конкурента».
Конечно, пока не было никаких прямых доказательств того, что внеземные ИИ уничтожили естественную жизнь в каких-либо инопланетных цивилизациях, хотя, по мнению Бейли, «открытие искусственного внеземного разума без сопутствующих доказательств существования ранее существовавшего биологического разума могло бы обязательно переместите иглу».
Такая возможность, конечно, повышает вероятность того, что во Вселенной существуют разрушительные ИИ, уничтожившие своих создателей. С этой целью Бэйли услужливо предполагает, что «активное сигнализирование о нашем существовании способом, который может быть обнаружен таким внеземным ИИ, может быть не в наших интересах», потому что «любой конкурентоспособный внеземной ИИ может быть склонен искать ресурсы в другом месте, включая Землю».
«Хотя это может показаться научной фантастикой, вполне вероятно, что вышедшая из-под контроля... технология, такая как искусственный интеллект, могла бы стать вероятным кандидатом на роль Великого фильтра — будь то органического происхождения на нашей планете или внеземного происхождения», — заключает Бэйли. «Мы должны спросить себя: как нам подготовиться к такой возможности?»
Читатель, это странная штука, но мы еще раз рады, что кто-то об этом задумывается.
Еще об апокалипсисе ИИ:Уоррен Баффет сравнил ИИ с атомной бомбой
Еще об апокалипсисе ИИ: