Осторожно, подделка: запретят ли человекоподобных роботов и кто на этом потеряет миллиарды?

2026 год. Вы открываете видеозвонок. Партнер из Азии выглядит встревоженным, говорит сбивчиво, просит срочно перевести 2 миллиона долларов на «безопасный счет». Голос, интонации, даже родинка над губой — всё его. Вы переводите деньги. Через час выясняется: партнер спал, а вы разговаривали с роботом-двойником, которого арендовали мошенники за 300 долларов в час.
Звучит как сценарий для «Черного зеркала»? Индустрия человекоподобных роботов уже подошла к этой черте. Вопрос только в том, кто первый переступит — преступники или законодатели.
В этом материале разберем, почему люди вообще хотят создавать свои копии, какие технологии делают это возможным уже сегодня и как бизнесу защитить себя, когда грань между человеком и машиной окончательно исчезнет.

Анатомия спроса: почему мы хотим копировать себя?

Прежде чем говорить о запретах, нужно понять главное: человекоподобные роботы — это не прихоть инженеров из лабораторий MIT. Это ответ на три наших глубинных, архаичных желания. И пока эти желания существуют, рынок будет расти.

Желание первое: победить одиночество
В Токио открылся первый кафе-бар, где посетителей обслуживают роботы-андроиды. Внешность каждой модели создана по индивидуальному заказу. Самый популярный запрос у женщин 50+? «Сделайте похожим на моего мужа, каким он был 30 лет назад».
Мы живем в эпоху глобальной изоляции. Семьи рассыпаются, дружба становится цифровой, пожилые люди доживают век в четырех стенах. Робот-компаньон — это идеальное решение для рынка «Silver Economy». Он не предаст, не устанет, не умрет. Япония, Корея, Европа уже платят миллиарды за эту иллюзию тепла.

Желание второе: цифровое бессмертие
Недавно медиа облетела история: европейский бизнесмен, владелец сети отелей, заказал свою полноразмерную копию. Робот запрограммирован на голос, мимику, манеру шутить и даже на специфический «отцовский» взгляд. Зачем? Чтобы после физической смерти основателя компания «слышала его голос» на советах директоров.
Тщеславие и страх забвения — двигатель прогресса. Сервисы по созданию цифровых аватаров умерших родственников уже обыденность. Следующий шаг — физические тела. Рынок «наследия» будет расти быстрее, чем мы думаем.

Желание третье: доверие к знакомому
Эволюционно мы запрограммированы доверять лицам. Машина с человеческими чертами кажется нам безопаснее безликого механизма. Именно поэтому первые человекоподобные роботы появляются не в цехах заводов, а в зонах контакта с клиентом: ресепшены отелей, стойки информации в аэропортах, школьные классы.
Бизнес уже понял: клиент охотнее купит страховку у «человека», даже зная, что это робот. Повышение конверсии перевешивает этические сомнения.

Грань возможностей: как сегодня выглядит идеальная имитация

Последние два года стерли технологическую границу между «роботом» и «копией человека».

Материя. Современный силикон и медицинские полимеры имитируют кожу с точностью до пор и капилляров. Специальные подогревающие элементы создают иллюзию тепла тела. Разработчики научились имитировать пульс на кончиках пальцев.

Движение. Главная проблема прошлых поколений андроидов — «зловещая долина» (uncanny valley) — почти преодолена. Новые сервоприводы и искусственные мышцы позволяют роботу не только моргать, но и совершать микродвижения: нервное покусывание губы, поправление очков, барабанная дробь пальцами по столу в задумчивости.

Сознание. Интеграция больших языковых моделей (LLM) сделала общение с роботом естественным. Они не просто отвечают на вопросы — они запоминают контекст, шутят, эмпатируют и даже спорят. Поставьте рядом двух людей и робота — без специального теста вы не отличите машину за первые 30 секунд диалога.
Антропоморфные роботы могут не только что то делать, но и общаться. Например, с одинокими людьми

Темная сторона сходства: реестр робо-преступлений будущего

Именно здесь начинаются проблемы, ради которых мы собрались.
В 2024 году эксперты Интерпола выпустили закрытый доклад, где впервые систематизировали «преступления будущего» в связке с антропоморфными роботами.
Открытые источники позволяют выделить несколько основных источников угроз. Списко впечатляющий, но не полный:

Финансовый хаос
Представьте: совет директоров крупной компании собирается на экстренное видеосовещание. Перед ними — взволнованный генеральный директор, который находится в командировке. Он просит срочно одобрить сделку, иначе компания потеряет контракт. Голос, лицо, жесты — всё подлинно.
В реальности директор спит в отеле, а его копией управляют хакеры, получившие доступ к базе данных движений и голоса. Сумма ущерба в таких сценариях может достигать сотен миллионов долларов. И это не фантастика — технологии синтеза тела в реальном времени уже тестируются в лабораториях.

Политические провокации
Использование двойников публичных лиц для дестабилизации. Представьте робота, имитирующего президента страны, который делает заявление об объявлении войны или начале ядерных учений. Даже 10 минут эфира такого «двойника» могут привести к необратимым последствиям. Механизмы верификации первого лица государства должны будут меняться кардинально.

Шантаж и компрометация
С развитием индустрии роботов-компаньонов возникнет новый вид шантажа. Злоумышленники взламывают «личного» робота человека и получают доступ к интимным разговорам, слабостям, тайнам. Дальше — классический шантаж. Разница лишь в том, что «свидетелем» ваших тайн становится машина, которую можно взломать удаленно.

Физический взлом
Пока одни хакеры взламывают цифровые двойники, другие пойдут по пути наименьшего сопротивления — используют роботов для банальных краж и грабежей.
Представьте обычный бизнес-центр класса А. Система безопасности настроена на людей: биометрия, пропуска, охрана на входе. Но что, если в здание пытается проникнуть не человек, а его идеальная копия?
Представьте: робот-сиделка по ошибке (или из-за взлома) навредил пожилому человеку. Кто ответит? Производитель софта? Производитель «тела»? Владелец? Или сам робот, если у него есть самообучающийся AI? А если робот был создан по образцу реального человека без его согласия — это нарушение права на изображение или промышленный шпионаж?*
Эти вопросы уже сейчас разделяют юристов и этиков на два лагеря. А как считаете вы? Присоединяйтесь к обсуждению в нашем Telegram-канале [ссылка] и группе для подписчиков [ссылка]. Самые яркие мнения мы опубликуем в следующем номере.

Обсудим в наших соцестях?
Это самый простой и быстрый способ пообщаться на интересные темы. Общаемся лично и сразу.


Дилемма регулятора: запретить нельзя оставить

Как мы относимся к антропоморфным роботам? Будут ли ограничения?
Хотим ли мы общаться с роботами?
Логичный вопрос: может, просто запретить создание человекоподобных роботов?
Законодатели пытаются. Европейский AI Act классифицирует некоторые антропоморфные системы как «высокорисковые». В Китае требуют обязательной идентификации AI-контента. В США отдельные штаты вводят ограничения на использование дипфейков.
Но полный запрет невозможен. Почему?
  1. Медицина. Протезы, имитирующие живые конечности, сиделки для пациентов с деменцией, которой нужен «знакомый» образ, — это спасение жизней.
  2. Наука. Исследование человеческого поведения, когнитивистика, тестирование лекарств — антропоморфные роботы незаменимы.
  3. Индустрия развлечений. Парки аттракционов, кино, театры — слишком мощный экономический лоббист.
Запрет будет похож на борьбу с интернет-пиратством: полностью не искоренить, но можно создать правила, которые сделают рынок цивилизованным.


Решения для рынка: «Клеймо Каина» для человекоподобных роботов и автономных машин

Если запрет невозможен, нужны инструменты защиты. Какие варианты обсуждают сегодня эксперты?
Вариант 1. Нестираемая маркировка
Техническое требование ко всем антропоморфным роботам: наличие неудаляемого индикатора «Я — робот». Это может быть световой сигнал в районе виска, который нельзя отключить программно. Или звуковой маркер в голосе на определенных частотах. Или QR-код на корпусе, ведущий в реестр производителя.
Вариант 2. Программная конституция
Вшитый в прошивку кодекс: робот обязан при первом контакте с человеком четко идентифицировать себя как машину. Причем обход этой идентификации (например, через промпт-инжиниринг «притворись человеком») должен быть технически невозможен.
Вариант 3. Системы верификации для бизнеса
Создание закрытых блокчейн-реестров, куда корпорации могут отправлять запрос на верификацию собеседника. Получили видеозвонок от «партнера» — отправляете спецзапрос, система подтверждает: «Это человек» или «Это робот, ID такой-то, владелец такой-то».

Другие статьи, которыем могут быть вам интересны.


Решения для рынка: «Клеймо Каина» для человекоподобных роботов и автономных машин

Мы стоим на пороге мира, где внешность перестанет быть гарантией личности. Для бизнеса это означает новую реальность: доверие больше не будет авансом, а станет товаром, который нужно проверять.

Крупные корпорации уже создают отделы «цифровой гигиены», которые занимаются верификацией контрагентов. Юридические фирмы разрабатывают страховки от «роботизированного мошенничества». Производители роботов лихорадочно ищут баланс между реалистичностью и безопасностью.

Запретить имитацию человека нельзя — слишком силен спрос, слишком глубоки человеческие желания. Но оставить всё как есть — значит открыть ящик Пандоры.

Мы на Upperator.ru инициируем дискуссию для бизнеса, юристов и разработчиков. Цель —прояснить ситуацию и поучаствовать в выработке понятных рыночных стандартов, которые защитят нас всех, не убив индустрию.
Присоединяйтесь к обсуждению. Потому что завтра кто то может сделать выбор за нас.
Должен ли робот иметь право не идентифицировать себя в частном пространстве? Например, если это робот-компаньон одинокого человека, и они живут вдвоем — обязана ли машина каждые пять минут напоминать: «Я робот»? Или право на приватность владельца важнее?
И второй вопрос: если робот имитирует конкретного человека (например, умершего родственника), нужно ли согласие этого человека при жизни? Распространяется ли право на изображение на посмертные роботизированные копии?
Это не просто философия. Это будущие многомиллионные иски. Что думаете вы? Заходите в наши сообщества [ссылка] и [ссылка], чтобы высказаться. Авторы самых острых комментариев получат доступ к закрытому вебинару по юридической безопасности в эпоху AI.
Понравилась эта статья?
Напишем еще. Пишите ваши идеи, сделаем так же интересно или даже лучше.
Нажимая на кнопку "Отправить запрос" вы соглашаетесь с политикой в области обработки персональных данных и даете согласие на обработку ваших персональных данных