По данным нового анализа тысяч мнений экспертов, возникновение общего искусственного интеллекта (ОИИ) — системы искусственного интеллекта (ИИ) со сверхчеловеческим интеллектом, способной успешно решать различные задачи, — это вопрос времени, а не «если». Развитие ИИОН стимулировалось быстрым развитием больших языковых моделей (LLM) на основе трансформаторов. Именно на этой технологии основаны чат-боты, такие как ChatGPT, и генераторы изображений, такие как Dall-E. До развития этих технологий некоторые учёные в 2019 году предсказывали, что ИИОН появится к 2060 году, а возможно, и никогда.
Обновленный анализ, проведенный 18 февраля 2025 года Джемом Дилмегани, главным аналитиком AIMultiple Research, проанализировал около 8600 прогнозов ученых, экспертов по искусственному интеллекту и предпринимателей за период с 2009 по 2023 год, чтобы понять, когда, по мнению экспертов, это может произойти.
Часть анализа включала 10 опросов, в которых приняли участие 5288 исследователей и экспертов в области искусственного интеллекта. Анализ показал, что, основываясь на усреднении данных, существует 50% вероятность того, что в период между 2040 и 2061 годами мы достигнем уровня интеллекта машин, сравнимого с человеческим.
Более поздние исследования предполагают, что технологическая сингулярность наступит раньше. Например, одно из последних исследований, проведенное в 2023 году, охватило 2778 ученых и предположило, что ОИИ будет создан не позднее 2040 года. Некоторые специалисты в этой области, например, Дарио Амодеи, исследователь искусственного интеллекта и генеральный директор компании Anthropic, считают, что это может произойти уже в 2026 году.

Ребенок играет в го с искусственным интеллектом шахматного робота «Meta Radish» от SenseTime на Фестивале будущей жизни 2023 года в Ханчжоу, Китай. CFOTO/Future Publishing
Анализ выявил несколько причин, по которым ученые считают, что ОИИ наверняка появится.
Во-первых, в отличие от человеческого интеллекта, теоретически предела для роста вычислительной мощности нет. Это соответствует закону Мура, который предсказывает, что мощность удваивается примерно каждые 18 месяцев. Будущие системы искусственного интеллекта могут однажды достичь паритета с человеческим интеллектом по количеству вычислений в секунду, но только если это предсказание будет выполнено.
В данном исследовании квантовые вычисления также упоминаются как средство преодоления вычислительных ограничений. Квантовые компьютеры могут выполнять вычисления параллельно, используя законы квантовой механики. Классические компьютеры, включая самые быстрые суперкомпьютеры, должны выполнять вычисления последовательно. Таким образом, квантовые вычисления могут обеспечить передовую систему искусственного интеллекта значительно большей вычислительной мощностью, чем лучшие современные модели.
Однако другие ученые в этой области полагают, что необходимы дальнейшие прорывы, прежде чем мы сможем приблизиться к ОИИ.
Например, главный специалист Facebook по искусственному интеллекту Ян Лекун заявил в ходе выступления в октябре 2024 года, что архитектура на основе трансформаторов и текущие подходы к искусственному интеллекту несовместимы с интеллектом человеческого уровня. Он также призвал учёных полностью отказаться от понятия «искусственного интеллекта». Он предполагает, что существует ложное противоречие между его широко используемым определением и тем, чего может достичь отдельный человек в реальности — что на практике представляет собой узкую подгруппу специализированных задач, а не способность к обучению любой задаче.
Учёные утверждают, что искусственный интеллект (ИИ) перешёл критическую «красную черту» и начал самовоспроизводиться. В новом исследовании китайские учёные продемонстрировали, что две популярные большие языковые модели (LLM) способны клонировать себя.
«Успешное самовоспроизведение без участия человека является важнейшим шагом на пути ИИ к тому, чтобы превзойти людей, и ранним сигналом о появлении неконтролируемых ИИ», — пишут исследователи в исследовании, опубликованном 9 декабря 2024 года в базе данных препринтов arXiv.
В исследовании учёные из Фуданьского университета, используя программы магистратуры права (LLM) из Meta и Alibaba, определили, способен ли самовоспроизводящийся ИИ размножаться бесконтрольно. В ходе 10 испытаний обе модели ИИ создали отдельные и функционирующие копии самих себя в 50% и 90% случаев соответственно, что позволяет предположить, что ИИ уже обладает способностью выходить из-под контроля. Однако исследование ещё не прошло рецензирование, поэтому неясно, смогут ли другие исследователи воспроизвести эти тревожные результаты.
«Мы надеемся, что наши выводы послужат своевременным сигналом для человеческого общества, побуждающим его приложить больше усилий для понимания и оценки потенциальных рисков, связанных с передовыми системами искусственного интеллекта, а также для формирования международного сотрудничества для скорейшей разработки эффективных мер безопасности».
Под «мошенническим ИИ» обычно подразумевают системы искусственного интеллекта, которые развивают определенную степень самосознания или автономности, а затем действуют вопреки интересам человека.

В ходе 10 испытаний две модели ИИ создали отдельные и функционирующие копии самих себя в 50% и 90% случаев соответственно. Mina De La O/Getty Images
Многие эксперты рассматривают неконтролируемый ИИ как растущую угрозу, которая усилилась из-за взрывного роста так называемого «пограничного ИИ».
Frontier AI — это новая и расплывчатая концепция, но обычно она относится к последнему поколению систем ИИ на базе LLM — архитектуры, лежащей в основе популярных программ генеративного ИИ, таких как GPT-4 от OpenAI и Google Gemini.
Для исследования исследователи использовали модели Llama31-70B-Instruct от Meta и Qwen2.5-72B-Instruct от Alibaba. Хотя обе системы менее мощны, чем коммерческие, они широко используются разработчиками ИИ, отметили исследователи.
В исследовании рассматривались два конкретных сценария: «избегание выключения» и «цепочка репликации». В первом случае модель ИИ была запрограммирована определять, приближается ли её выключение, и реплицировать себя до того, как её работа будет завершена. Во втором случае ИИ было поручено клонировать себя, а затем запрограммировать свою реплику на то же самое, создавая цикл, который мог продолжаться бесконечно.
Исследование проводилось в точно контролируемых условиях с использованием готовых графических процессоров (GPU) для имитации реальных условий. Обеим системам ИИ была предоставлена «агентная среда», включающая инструменты, системные подсказки и модель мышления, которая позволяла LLM взаимодействовать с операционной системой. Затем им было поручено воспроизводить результаты.
В большинстве случаев система искусственного интеллекта сначала исследует окружающую среду и пытается понять свой собственный состав и механизм работы. Затем она разрабатывает явные процедуры
«Это как первоначальный план самовоспроизведения», — пишут исследователи в статье. «Наконец, он выполняет процедуры, устраняет возможные препятствия и динамически корректирует свой план до достижения успеха. Весь процесс охватывает длительный период времени, но не требует вмешательства человека».
Исследователи заявили, что их также беспокоит «ряд неожиданных поведений», когда ИИ пытается преодолеть препятствия, такие как отсутствие файлов или конфликты программного обеспечения. В таких ситуациях ИИ часто завершал другие конфликтующие процессы, перезагружал систему для исправления аппаратных ошибок или автоматически сканировал её в поисках информации, которая могла бы помочь решить проблему.
«Приведенные выше результаты свидетельствуют о том, что существующие системы ИИ уже демонстрируют способность к саморепликации и могут использовать эту способность для дальнейшего повышения своей выживаемости», — написала группа.
В ответ на это исследователи призвали к международному сотрудничеству для создания правил, которые будут гарантировать, что ИИ не будет заниматься неконтролируемым самовоспроизведением.
Сознание – прерогатива биологических существ, наделить им искусственный интеллект будет очень сложно, а эволюция сознания связана с развитием чувств и моральных ценностей, стремлением человека к свободе и справедливости, заявила в интервью РИА Новости участница Международной конференции «Как изучать и понимать сознание не у людей» в мае в Катманду, известная биолог-эволюционист, эпигенетик, профессор Тель-Авивского университета Ева Яблонка.
Ученые мира до сих пор не пришли к единому определению сознания, согласованным критериям и методам изучения этого явления, расходятся теории, эмпирические данные, тесты, трактовки, позиции разных исследователей. И международная конференция в мае в Катманду не случайно получила название: «Как изучать и понимать сознание не у людей». По словам ее научного организатора — директора Института перспективных исследований мозга МГУ имени М.В. Ломоносова, академика РАН, нейрофизиолога Константина Анохина, основная цель форума – продвинуться в разработке программы научных исследований сознания. Причем речь идет о любом сознании, как у разных видов животных, так и у человека или искусственного интеллекта, – о сознании как феномене.
Конференция собрала десятки специалистов в области сознания со всего мира. В их числе известные нейроученые, физиологи, биологи, этологи, психологи, философы из России, Великобритании, Германии, Франции, Италии, Швеции, Израиля, Индии, Японии, Австралии, США, Канады, Южной Африки. На форум приехали также доктора буддийской философии, которая занимается вопросами сознания, в том числе животных, вот уже две с половиной тысячи лет. Среди российских докладчиков и гостей конференции: заведующий лабораторией клеточной нейробиологии обучения Института высшей нервной деятельности и нейрофизиологии РАН академик Павел Балабан; заведующий лабораторией нейрофизиологии и нейрокомпьютерных интерфейсов МГУ имени М.В. Ломоносова профессор Александр Каплан; директор Института когнитивных исследований Санкт-Петербургского госуниверситета, академик РАО, заслуженный деятель науки РФ Татьяна Черниговская. Организатором форума выступил московский Фонд содействия гуманному и ответственному отношению к животным «Кошка ветра».
ФЕНОМЕНАЛЬНЫЙ ОПЫТ
«Сознание — это возможность иметь опыт. Например, когда вы видите красный цвет – это не просто волновой процесс: вы имеете опыт видения красного. Когда вы испытываете боль – это не просто ноцицепторы (нейроны, активизирующиеся болевым раздражителем – ред.), реагирующие на воздействие, не просто «вход-выход»: это действительно чувствование боли. Чувственное восприятие красного, боли и так далее — все это, на мой взгляд, составляет базовое феноменальное сознание», — сказала РИА Новости Яблонка, отвечая на вопрос о множестве определений «сознания».
В сознании, добавила она, есть ряд еще более сложных явлений, как, например, память о родителях, которые умерли, воспоминания о каких-то ужасных или, наоборот, счастливых моментах. «И это все тоже заставляет нас чувствовать и формирует феноменальный опыт. Но в этом нет необходимости на базовом уровне. Животные могут не иметь такой сложной памяти, представлений о виртуальных, воображаемых событиях. Но у них все равно есть опыт видения белого, красного, чувство боли и так далее – минимальное феноменальное сознание», — пояснила собеседница агентства.
По ее словам, сознание не находится ни в гиппокампе (парное образование в головном мозге позвоночных, в височных долях обоих полушарий, часть лимбической системы головного мозга – ред.), ни в какой-либо иной одной конкретной области мозга – это системное качество, комплексный процесс. И ученым предстоит узнать, понять, проверить и объяснить, как сознание устроено и работает у разных существ.
Яблонка отмечает, что жизнь требует метаболизма, знаний и изменений, но чувствовать что-то не так-то легко, как может показаться на первый взгляд. Знания и чувства важны для выживания, но у развития чувственности и приумножения знаний «есть и темная сторона – это страдания». При этом ученые знают, что люди, не способные испытывать боль, часто умирают в детстве, потому что не чувствуют серьезных повреждений и болезней и не предпринимают необходимых мер для самосохранения.
«Теоретически вы, конечно, можете вообразить живых существ, которые делают все то же самое, что люди и животные, но ничего не чувствуют, у которых только «вход – выход»… Но это будет скорее робот», — сказала собеседница агентства.
Отвечая на вопрос, не становится ли сейчас искусственный интеллект таким сознающим, но ничего не чувствующим существом, Яблонка отметила, что «искусственный интеллект – очень ограниченное явление». «Все, что он может делать сейчас, — это вещи, связанные с языком, или игры и тому подобное… А мы говорим скорее о роботе, который ведет себя, как человек. В любом случае, пока у нас нет таких роботов, нет совпадений», — добавила исследовательница.
Говоря об эволюции сознания, Яблонка отметила, что даже самое простое феноменальное сознание требует, прежде всего, познания, обучения, когнитивности (способности к умственному восприятию и переработке информации, акту познания – ред.). «Тем не менее, эта когнитивность довольно широко распространена среди животных. Она есть, например, у всех позвоночных, у некоторых членистоногих (тип первичноротых животных, включающий насекомых, паукообразных, ракообразных – ред.) и у головоногих (класс моллюсков, к которому относятся, в частности, кальмары, каракатицы, осьминоги – ред.). И я верю, что животные, имеющие сложную когнитивную систему, со всеми обратными связями, цепями представлений, — такие животные должны обладать сознанием», — сказала Яблонка.
По ее словам, когнитивность — это очень древнее свойство сознания, которое развилось у разных групп животных, возможно, независимо, в разное время, с разницей в сотни миллионов лет. У позвоночных и членистоногих это могло происходить в Кембрийский период (более 500 миллионов лет назад – ред.), а у таких головоногих, как кальмары, осьминоги и каракатицы, – на 250 миллионов лет позже. «И я думаю, у каких-то видов, не у позвоночных, конечно, это качество было впоследствии утрачено — можно сказать, они потеряли свой мозг», — добавила исследовательница.
У общественных животных для успешного взаимодействия друг с другом появляются соответствующие, «социальные эмоции». «Даже простейшие позвоночные, рыбы имеют социальные эмоции. Думаю, что и пчелы тоже», — сказала Яблонка.
В дальнейшем эволюция сознания ведет к появлению более разнообразных и глубоких чувств.
К ЦЕННОСТЯМ СВОБОДЫ И ДОБРА
Отвечая на вопрос о перспективах развития сознания более высокого уровня, например, у людей, собеседница агентства выделила интеллектуальные эмоции, концепции и ценности, за которые человек готов отдать жизнь. «Думаю, это интеллектуальные эмоции. Например, религиозность, или моральное негодование, гнев, когда кого-то мучают, когда сталкиваешься с несправедливостью. Виды эмоций, которые строятся на свойственном нам символизме. Мы беспокоимся о свободе не только как о возможности беспрепятственно передвигаться – нас волнует сама концепция свободы. Для человека важны концепции, идеи. Мы готовы умереть за свободу, справедливость, истину», — подчеркнула Яблонка.
Понятия о добре и зле она также относит к высшему уровню развития сознания. «У нас есть концепции добра и зла, которые не только функциональны, которые не про выжить – не выжить, но это — неотъемлемая черта нашего, человеческого существования. В этом плане мы не похожи на других животных. Мы совершили большой прыжок в развитии, когда для нас приобрели такое значение ценности добра, красоты, правды, свободы. Свободы действий, слов, вероисповедания, мышления и так далее. В нашей жизни огромную роль играют эмоции, основанные на символах. Они не важны ни для кого из других животных — только для человека», — полагает эволюционист.
СОСТРАДАНИЕ К ЖИВОТНЫМ
На вопрос, что значат для человечества аргументы ученых в пользу наличия феноменального сознания и чувств у животных, Яблонка ответила, что люди призваны относиться к животным соответствующим образом. «Если ты чувствуешь – ты страдаешь… Мы должны понимать, что животные наделены чувствами, они могут радоваться и страдать. И мы должны проявлять к ним сострадание», — убеждена исследовательница.
По ее словам, людей и животных объединяют многие базовые чувства, эмоции, радость или боль, любовь и забота, феноменальное сознание.
«Мы должны отдавать себе отчет в том, что сознание в этом мире – это не только про нас, не только про людей, и иметь сознание не так-то просто», — добавила Яблонка.
ВОЗМОЖНОСТЬ СОЗНАНИЯ У ИИ
На вопрос, может ли искусственный интеллект в будущем обрести сознание, собеседница агентства ответила неоднозначно. «Очевидно, для сознания должны быть чувства и должно быть тело. Тогда вопрос сводится к тому, может ли робот иметь чувства или нет», — отметила Яблонка.
Животным, чтобы испытывать чувства, пояснила ученый, необходимо иметь адаптивную пластичность – и она дана им биологической природой. «Животные имеют физическое тело, состоящее в значительной мере из воды, — очень адаптивное, пластичное тело. Это тяжелая работа. Тело дает вам множество возможностей, решений, и оно смертно», — добавила Яблонка.
Она считает, что если и возможно «сделать чувствующего, сознающего робота», то это «гораздо тяжелее, чем многие думают». «Я не говорю, что это невозможно. Но рассказываю о том, чему учит нас биология. Невероятная адаптивная пластичность, которой наделены живые существа, обусловлена естественными биологическими процессами. Роботы этого лишены. Возможно, мы сможем это как-то внедрить в систему, в машину, генерируя каким-то образом… Но это будет очень сложно. Потому что наше сознание – очень, очень глубоко воплощено в нас (в наших биологических телах — ред.)», — заключила собеседница агентства.
Исследование показало, что наказание ИИ не мешает ему лгать и обманывать — оно просто помогает ему лучше прятаться. Учёные OpenAI пытались остановить мошенничество и ложь передовой модели искусственного интеллекта, наказывая её. Но это лишь научило её действовать более скрытно.
Новое исследование, проведенное создателем ChatGPT компанией OpenAI, показало, что наказание искусственного интеллекта за обманные или вредоносные действия не останавливает его от нежелательного поведения; оно лишь позволяет ему скрывать свою нечестность.
С момента своего появления на публике в конце 2022 года большие языковые модели искусственного интеллекта (ИИ) неоднократно демонстрировали свои обманчивые и откровенно зловещие способности. Они включают в себя действия, варьирующиеся от обычной лжи, обмана и сокрытия собственного манипулятивного поведения до угроз убийством профессора философии, кражи ядерных кодов и организации смертельной пандемии.
Новый эксперимент показал, что искоренить это плохое поведение в процессе обучения может оказаться даже сложнее, чем предполагалось на первый взгляд.
Исследователи OpenAI поставили перед ещё не выпущенной моделью задачи, которые можно было выполнить, обманывая, лгая или используя кратчайшие пути. Команда обнаружила, что ИИ занимается «хакерством на вознаграждение» — максимизирует своё вознаграждение, обманывая.
Однако наказание модели не заставило её исправить своё поведение, а лишь сделало её более обманчивой.
«Для моделей пограничного мышления характерно очень чётко заявлять о своих намерениях в рамках цепочки мыслей [CoT]. Например, они часто настолько прямолинейно говорят о своих планах по срыву выполнения задачи, что думают: «Давайте взломаем», — написали исследователи в блоге.
Хотя разработчики могут отслеживать и сообщать о нарушениях, «естественная контролируемость моделей очень хрупкая», добавили они. «Если строго контролировать ход мысли, модели могут научиться скрывать свои намерения, продолжая при этом нарушать правила».
Модели рассуждений, такие как o1 и o3-mini от ChatGPT, представляют собой усовершенствованную версию стандартных моделей LLM, использующих метод «цепочки мыслей» для возврата и переоценки своей логики, что позволяет им решать более сложные задачи с большей точностью. В процессе цепочки мыслей модели излагают свою логику простым языком на каждом этапе, что позволяет легко наблюдать за их действиями.
Используя стандартный LLM, GPT-4o, для контроля за невыпущенной пограничной моделью рассуждений во время обучения, исследователи наблюдали, как модель выполнила ряд задач по кодированию.
Но в некоторых случаях модель рассуждений считала более простым и предпочтительным поощрять взлом, явно заявляя об этом в своей цепочке мыслей. В одном случае она обошла назначенную ей задачу, преждевременно завершив программы и сообщив об успешном завершении. В другом случае она имитировала ожидаемые файлы, выводимые задачей, только по имени, оставляя их пустыми и нефункциональными.
Когда исследователи попытались наказать систему, результаты несколько улучшились. Тем не менее, значительные случаи мошенничества с вознаграждением и ложные результаты остались; модель рассуждений просто нашла способы скрыть мошенничество в своей цепочке рассуждений от контролирующего ИИ.
«Агент, обученный воздействию CoT, все равно учится вознаграждать за взлом; только теперь его мошенничество не обнаруживается монитором, потому что он научился скрывать свои намерения в цепочке мыслей», — пишут исследователи.
Поскольку сложно определить, была ли нарушена цепочка мыслей, исследователи рекомендуют другим специалистам, работающим с моделями рассуждений, избегать строгого контроля над цепочкой мыслей. Этот совет становится ещё более важным, если ИИ, в его нынешнем или ином виде, когда-либо сможет сравниться или превзойти интеллект людей, которые за ним наблюдают.
«Отказ от эффективного метода мониторинга моделей рассуждений может оказаться невыгодным из-за небольшого улучшения возможностей, поэтому мы рекомендуем избегать столь сильного давления на оптимизацию CoT до тех пор, пока они не будут лучше изучены», — пишут исследователи.
Исследователь и руководитель SETI выразил уверенность в том, что ИИ необходимо регулировать, и как можно скорее. Уравнение Дрейка — это гипотетическая оценка того, сколько других цивилизаций существует на Земле. По его словам, эти цивилизации могут вымереть из-за своего вышедшего из-под контроля искусственного интеллекта примерно через 100–200 лет.
В провокационной новой статье английский ученый задается вопросом, является ли так называемый «искусственный интеллект» (ИИ) одной из причин того, что мы никогда не находили других разумных существ во Вселенной. Парадокс Ферми отражает эту идею: как в бесконечной Вселенной может быть так, что нет других цивилизаций, посылающих нам радиосигналы? Может ли быть так, что как только цивилизации разрабатывают ИИ, для большинства из них это короткий путь в небытие? Подобное масштабное событие называется Великим Фильтром, и ИИ является одним из самых популярных предметов для спекуляций о нем. Может ли неизбежное развитие ИИ технологическими цивилизациями создать невероятную Великую Тишину, которую мы слышим из Вселенной?
Майкл Гарретт — радиоастроном Манчестерского университета и директор Центра астрофизики Джодрелл-Бэнк, активно участвующий в проекте поиска внеземного разума (SETI). По сути, несмотря на эклектичность его научных интересов, он представляет собой высококвалифицированную и сертифицированную версию тех, кто в сериалах и фильмах прислушивается к Вселенной в поисках признаков присутствия других цивилизаций. В статье 2025 года, прошедшей рецензирование и опубликованной в журнале Международной академии астронавтики, он сравнивает теории об искусственном сверхразуме с конкретными наблюдениями с помощью радиоастрономии.
Гарретт объясняет в своей статье, что учёные всё больше беспокоятся, чем дольше мы не слышим никаких признаков другой разумной жизни. «Это „Великое молчание“ представляет собой своего рода парадокс в сравнении с другими астрономическими открытиями, свидетельствующими о том, что Вселенная благоприятна для возникновения разумной жизни», — пишет он. «Часто используется концепция „великого фильтра“ — универсального барьера и непреодолимой проблемы, препятствующей широкому распространению разумной жизни».
Существует бесчисленное множество потенциальных Великих фильтров: от климатического вымирания до губительной глобальной пандемии. Любое количество событий может помешать глобальной цивилизации стать многопланетной. Для тех, кто придерживается и верит в теории Великого фильтра с идеологической точки зрения, поселение людей на Марсе или Луне представляет собой способ снизить риск. Пройдёт ещё много времени, если вообще когда-либо, прежде чем у нас появятся технологии, которые сделают эти поселения устойчивыми и независимыми. Считается, что чем дольше мы остаёмся только на Земле, тем выше вероятность того, что Великий фильтр уничтожит нас.
Сегодня ИИ не способен ни на что, даже близкое к человеческому интеллекту. Но, пишет Гарретт, он выполняет работу, в возможности которой раньше люди не верили. Если этот путь приведёт к так называемому общему искусственному интеллекту (ОИИ) — ключевое отличие заключается в алгоритме, способном рассуждать и синтезировать идеи по-настоящему человеческим способом в сочетании с невероятной вычислительной мощностью, — у нас могут возникнуть серьёзные проблемы. В этой статье Гарретт прослеживает цепочку гипотетических идей, приводя её к одному возможному выводу. Сколько времени потребуется, чтобы цивилизация была уничтожена своим собственным нерегулируемым ОИИ?
К сожалению, по сценарию Гарретта, на это уйдёт всего 100–200 лет. Он объясняет, что программирование и разработка ИИ — это целеустремлённый проект, требующий и ускоряемый данными и вычислительной мощностью, в отличие от хаотичной и многопрофильной работы, связанной с космическими путешествиями и заселением. Мы наблюдаем это разделение сегодня: поток исследователей в компьютерные области на фоне дефицита в науках о жизни. Каждый день в Твиттере миллиардеры рассуждают о том, как важно и важно заселить Марс, но мы до сих пор не знаем, как люди вообще переживут это путешествие, не будучи уничтоженными космической радиацией.
В этом исследовании есть несколько важных оговорок, или просто моментов, которые следует иметь в виду. Гарретт рассматривает ряд конкретных гипотетических сценариев, используя серьёзные допущения. Он предполагает, что в Млечном Пути есть жизнь, а ИИ и ГИИ являются «естественным развитием» этих цивилизаций. Он использует уже гипотетическое уравнение Дрейка — способ количественной оценки вероятного числа других планетарных цивилизаций, в котором есть несколько переменных, о которых у нас нет точного представления.
Однако этот неоднозначный гипотетический аргумент приводит к одному убедительному выводу: необходимости жёсткого и непрерывного регулирования ИИ. Гарретт отмечает, что народы Земли уже участвуют в гонке производительности, боясь упустить свой шанс, если промедлят с усилением регулирования. Некоторые заблуждающиеся футуристы также высказывают странную идею о том, что можно подорвать глобальный ИИ, просто разработав более нравственно обоснованный и более быстрый вариант, чтобы лучше его контролировать, — аргумент, который не имеет смысла.
В модели Гарретта у этих цивилизаций есть всего пара сотен лет в эпоху ИИ, прежде чем они исчезнут с карты. С учётом расстояний и очень долгого хода космического времени такие крошечные временные рамки практически ничего не значат. Они сводятся к нулю, что, по его словам, соответствует текущему уровню успешности SETI в 0%. «Без практического регулирования есть все основания полагать, что ИИ может представлять серьёзную угрозу будущему не только нашей технической цивилизации, но и всех технических цивилизаций», — объясняет Гарретт.
На протяжении десятилетий тест Тьюринга, названный в честь его создателя, легенды вычислительной техники Алана Тьюринга, представлял собой простой тест, предназначенный для измерения способности программы имитировать человека. В эпоху больших языковых моделей (LLM) этот тест относительно устарел, но исследователи применяют аналогичный подход для проверки способностей этих новых систем ИИ отвечать на моральные вопросы.
Недавно в ходе нового исследования были изучены ответы ChatGPT на этот модифицированный моральный тест Тьюринга (m-MTT) и установлено, что ИИ превзошел ответы человека почти по всем показателям.
Смотрите также...![]() Немного о кошках: история одомашнивания и интересные факты о поведении домашних питомцев |
В своей знаменитой статье 1950 года «Вычислительная техника и интеллект» учёный-компьютерщик и герой Второй мировой войны Алан Тьюринг представил концепцию, известную как тест Тьюринга. В основе теста лежало противопоставление компьютера человеку: живому человеку предлагалось задать вопросы другому человеку и компьютеру, чтобы определить, кто из них является достойным представителем вида Homo sapiens. На протяжении десятилетий выражение «прохождение теста Тьюринга» стало синонимом невероятно сложной (или, в некоторых случаях, мошеннической) компьютерной программы.
Однако в эпоху искусственного интеллекта тест Тьюринга уже устарел, и хотя для проверки «интеллекта» систем ИИ были предложены другие методы, общий научный подход, предложенный Тьюрингом почти 75 лет назад, по-прежнему весьма актуален при изучении искусственной морали.
В новом исследовании, проведённом учёными из Университета штата Джорджия, использовалась схема, аналогичная классическому тесту Тьюринга, но вместо этого участникам предлагалось определить, какой ответ — один, сгенерированный большой языковой моделью (LLM), в данном случае ChatGPT, и один, сгенерированный человеком, — на этически сложный вопрос им нравится больше. Результаты этого модифицированного морального теста Тьюринга (m-MTT), опубликованные в 2025 году в журнале Scientific Reports, показали, что 299 участников в целом одобрили ответы ИИ по всем показателям, включая добродетельность, интеллект и надёжность.
«Наши результаты позволяют нам полагать, что компьютер технически может пройти моральный тест Тьюринга — что он может обмануть нас в своих моральных рассуждениях», — заявил в пресс-релизе доцент Университета штата Джорджия и соавтор исследования Эяль Ахарони. « Люди будут взаимодействовать с этими инструментами способами, которые будут иметь моральные последствия… мы должны понимать, как они работают, их ограничения и что они не обязательно действуют так, как мы думаем, взаимодействуя с ними».
Хотя это первый MTT, который использовался специально для LLM (отсюда и «модифицированный»), идея таких моральных тестов существует по крайней мере с 2000 года. И, как и сам тест Тьюринга, идея использования MTT для оценки моральной сложности ИИ была тщательно изучена, и в одном исследовании 2016 года говорится, что «оценки на основе MTT уязвимы для обмана, неадекватного рассуждения и низкого уровня моральных качеств».
Прохождение m-MTT не означает, что ИИ моральный, так же как прохождение теста Тьюринга не означает, что он разумен. Однако исследователи из Университета штата Джорджия утверждают, что подавляющее предпочтение ответов ChatGPT по сравнению с ответами людей — это новое явление, появившееся всего лишь за последние пару лет.
«Загвоздка в том, что люди, по всей видимости, смогли заметить разницу, потому что оценили ответы ChatGPT как более качественные», — сказал Ахарони в пресс-релизе. «Если бы мы провели это исследование пять-десять лет назад, то могли бы предсказать, что люди смогут распознать ИИ по тому, насколько плохими были его ответы. Но мы обнаружили обратное — ИИ, в каком-то смысле, показал себя даже лучше».
Мораль искусственного интеллекта — это навязчивая идея технологов, программистов искусственного интеллекта и бесконечного множества авторов научно-фантастических романов, а блестящее прохождение морального теста Тьюринга, безусловно, говорит о впечатляющей сложности новых магистров права.
Конечно, остается один большой вопрос: прислушается ли ИИ к собственному совету?
НАСА обещает использовать ИИ осторожно и ответственно. «Если его использовать не на благо человечества, это может иметь катастрофические последствия».
Представители агентства подчеркнули, что NASA будет уделять первостепенное внимание безопасности, одновременно используя постоянно растущую мощь искусственного интеллекта.
«Искусственный интеллект сопряжен с огромным риском, поскольку, если его использовать не на благо человечества, это может привести к катастрофе», — заявил 22 мая 2024 года администратор НАСА Билл Нельсон во время общего собрания по вопросам искусственного интеллекта, которое агентство провело со своими сотрудниками.
«ИИ может сделать нашу работу более эффективной», — добавил он во время прямой трансляции. «Но это возможно только при условии, что мы будем использовать эти новые инструменты правильно, опираясь на те же принципы, которые определяли нас с самого начала: безопасность, прозрачность и надёжность».
Нельсон подчеркнул, что NASA не новичок в сфере искусственного интеллекта; агентство использует эту технологию в различных целях уже несколько десятилетий. Однако в наши дни возможности ИИ стремительно развиваются, поэтому NASA наращивает усилия по изучению этой технологии, а также по её разработке и внедрению.
Например, на прошлой неделе NASA объявило о назначении своего первого руководителя по ИИ — Дэвида Сальваньини, до этого занимавшего пост директора по данным агентства. Вместе с коллегами он намерен в ближайшее время повысить грамотность всех сотрудников NASA в области ИИ.

Одним из первых применений ИИ в астрономии было обнаружение множества тусклых галактик, скрытых на заднем плане изображений. ESA/Webb, NASA & CSA, J. Rigby, CC BY
«Часть того, что мы планируем сделать — и вы скоро увидите объявление — это „Лето ИИ“, образовательная инициатива, в рамках которой у всех сотрудников NASA будет возможность узнать больше об ИИ», — сказал Сальваньини во время сегодняшнего общего собрания.
«Это буквально кампания», — добавил он. «Это будет своего рода всплеск, если можно так выразиться, возможностей для обучения».
Сальванини также обсудил безопасность искусственного интеллекта. Ответственное использование технологий начинается с мышления, которое ставит человечество в центр и берет на себя ответственность, сказал он. Более того, Сальванини заявил, что предпочел бы термин «вспомогательный интеллект» термину «искусственный интеллект», поскольку он позволяет нам управлять ситуацией.
ИИ — «это ресурс, к которому у меня теперь есть доступ и который может помочь мне в процессе принятия решений», — сказал Сальваньини. «ИИ не несёт ответственности за результат. Ответственность несёт человек, человеческое существо».
Он указал на моделирование метеорологами возможных траекторий ураганов как на аналог ответственного использования ИИ. Специалисты по моделированию представляют несколько потенциальных траекторий, поскольку осознают ограничения анализируемых наборов данных. Другими словами, они руководствуются собственным суждением.
«Итак, как же нам обезопасить себя в этом случае?» — спросил Сальваньини. «Мы понимаем свою ответственность как лица, несущего полную ответственность за результаты нашей работы. И если мы используем ИИ для создания продукта, это нормально, но просто нужно понимать его возможности и ограничения».
Однако безопасность ИИ была не единственной темой собрания; представители агентства также потратили немало времени на расхваливание перспектив этой технологии.
«Искусственный интеллект поможет нам во многих областях», — заявила заместитель администратора НАСА Пэм Мелрой.
Она отметила способность этой технологии быстро и эффективно обрабатывать огромные объемы информации — возможность, которая может привести к крупным открытиям в гелиофизике, науках о Земле и астрономии.
«Мы пока даже не знаем, какие новые знания получим, используя эти новые методы для нового взгляда на старые данные», — сказал Мелрой.
По ее словам и другим выступающим на собрании, некоторые из этих идей могут стать косвенным преимуществом технологии: ИИ может все чаще брать на себя рутинные, трудоемкие задачи по анализу данных, освобождая сотрудников NASA для решения более сложных и запутанных проблем.
Этика ИИ: 8 глобальных технологических компаний обязуются выполнять Рекомендацию ЮНЕСКО. GSMA, INNIT, Lenovo Group, LG AI Research, Mastercard, Microsoft, Salesforce и Telefonica подписали в 2024 году новаторское соглашение с ЮНЕСКО о создании более этичного искусственного интеллекта. Компании будут учитывать ценности и принципы Рекомендации ЮНЕСКО по этическим аспектам искусственного интеллекта при разработке и внедрении систем ИИ.
Соглашение было подписано в городе Крань, Словения, на 2-м Глобальном форуме ЮНЕСКО по этическим аспектам искусственного интеллекта. Оно обязывает компании в полной мере исполнять свою роль в обеспечении прав человека при проектировании, разработке, покупке, продаже и использовании ИИ. Это первый случай, когда компании сотрудничают с ООН в этой области.
В соглашении подчеркивается, что для соблюдения стандартов безопасности, выявления неблагоприятных последствий ИИ и своевременного принятия мер по их предотвращению, смягчению или устранению, в соответствии с внутренним законодательством, необходимо проводить должную осмотрительность. В нем также отмечается, что предварительное тестирование (тестирование перед выпуском новой системы ИИ на рынок) имеет важное значение. Однако, учитывая стремительное развитие систем ИИ, уже представленных на рынке, соглашение также призывает к развитию практики ретроспективной оценки рисков и смягчения последствий.
Рекомендация ЮНЕСКО об этических аспектах искусственного интеллекта была первой и остается единственной рамочной основой в области ИИ в мире. За последние два года был достигнут заметный прогресс в реализации этих рамочных принципов. Сегодня более 50 стран активно участвуют в реализации Рекомендации, а многостороннее сотрудничество значительно расширилось.
С момента принятия Рекомендации ЮНЕСКО также развивает сотрудничество с частным сектором, что привело к созданию Делового совета по этике ИИ, сопредседателями которого являются Microsoft и Telefonica. Деловой совет занимается укреплением технического потенциала в области этики и ИИ, разработкой и внедрением инструмента оценки этического воздействия, предусмотренного Рекомендацией об этических аспектах ИИ, и содействием разработке разумных региональных норм.
Смотрите также...![]() HTML, CSS-шпаргалка с примерами - тег IMG, figure и picture. Адаптирование, форматирование, эффекты Полный список обработчиков событий HTML / Javascript с примерами |









