Шок и травма: Когда ваше тело используют в дипфейк-порно без согласия

Эдуард Алтухов·
Шок и травма: Когда ваше тело используют в дипфейк-порно без согласия

В 2023 году Дженнифер, проверяя новую профессиональную фотографию с помощью программы распознавания лиц, сделала тревожное открытие. Программа не только нашла старые порнографические видео, снятые ею более 10 лет назад, но и показала нечто совершенно новое: одно из её прошлых видео с чужим лицом на её теле.

Вначале Дженнифер, чьё имя изменено для защиты конфиденциальности, подумала, что это просто другой человек. Но затем она узнала специфический фон из видео, снятого ею примерно в 2013 году, и поняла: "Кто-то использовал меня в дипфейке".

Жутко, но технология распознавания лиц всё равно идентифицировала её, так как на изображении сохранились черты Дженнифер — её скулы, брови, форма подбородка. "Как будто я ношу чужое лицо, как маску", — говорит она.

Дискуссии о сексуализированных дипфейках, входящих в категорию интимных изображений без согласия (NCII), чаще всего сосредоточены на людях, чьи лица используются для создания контента, которого они не делали. Зачастую это известные личности, хотя в последние годы жертвами становятся всё больше обычных людей (в основном женщин, а иногда и подростков), что вызывает тревогу, страх и даже стимулирует законодательные инициативы. Однако в этих обсуждениях и общественной реакции, как правило, не уделяется внимания телам, к которым прикрепляются эти лица в подобных изображениях и видео.

Как говорит Дженнифер, 37-летняя психотерапевт из Нью-Йорка: "Никогда не обсуждается вопрос: Чьё это тело?"

Долгое время ответ был однозначен: тела создателей взрослого контента. Сам термин "дипфейки" появился в ноябре 2017 года, когда пользователь Reddit под ником "deepfakes" опубликовал видео, где лица звёзд вроде Скарлетт Йоханссон и Галь Гадот были наложены на тела порноактёров. Корри Силверстайн, адвокат, специализирующийся на взрослой индустрии, подтверждает, что несанкционированное использование их тел в дипфейках "происходит постоянно".

Но в последнее время, с развитием генеративного ИИ и распространением приложений для "обнажения" (nudify apps), проблема значительно усложнилась и, вероятно, стала ещё более опасной для будущего создателей контента.

Тела порноактёров теперь не обязательно берутся напрямую из сексуальных видео или изображений, или, по крайней мере, их использование становится неидентифицируемым. Вместо этого они неизбежно используются в качестве обучающих данных для формирования внешнего вида, движений и "исполнения" новых, созданных ИИ тел. Это угрожает заработку и правам порноактёров, поскольку их работы служат для обучения ИИ-систем, генерирующих обнажённые тела, что, в свою очередь, может отобрать у них бизнес. Помимо этого, прогресс в ИИ позволяет полностью воссоздавать образы этих исполнителей без их согласия, и ИИ-копии могут совершать действия, на которые реальные исполнители никогда бы не пошли. Это может означать участие их цифровых двойников в определённых сексуальных актах, на которые они не давали согласия, или даже мошенничество в отношении фанатов.

Создатели взрослого контента и без того маргинализированы обществом, которое зачастую не обеспечивает их безопасность и права, а нынешние тенденции ставят их в ещё более уязвимое положение. После того как Дженнифер обнаружила дипфейк со своим телом, она написала в социальных сетях о психологических последствиях: "Я никогда не видела, чтобы кто-то спрашивал, может ли это быть травматичным для человека, чьё тело было использовано без согласия. ЭТО ТАК!" Несколько других авторов, с которыми я общался, также рассказали о психологическом давлении, связанном с осознанием несанкционированного использования их тел, и о страхе перед финансовыми потерями из-за пиратства их работ. Силверстайн ежедневно слышит от взрослых актёров, что они "обеспокоены эксплуатацией их контента с помощью ИИ и пытаются понять, как его защитить".

Один профессор права и эксперт по насилию в отношении женщин называет этих авторов "забытыми жертвами" дипфейков NCII. Некоторые из моих собеседников опасаются, что по мере разработки в США законодательной базы для борьбы с несанкционированным сексуальным контентом онлайн, взрослые актёры рискуют понести ещё больший ущерб; вместо помощи, борьба с дипфейками может создать лазейку, через которую их легальный контент и карьера могут быть полностью удалены из интернета.

Как дипфейки причиняют "телесный вред"

В 1970-х, ещё будучи подростком, Спайк Айронс, ныне порноактёр и президент платформы для взрослого контента XChatFans, был "влюблён" в Фарру Фосетт. Хотя Фосетт никогда не позировала обнажённой, Айронсу удавалось находить изображения, которые выглядели как её обнажённые фотографии. "Люди вырезали лица и наклеивали их на тела", — вспоминает Айронс. "Дипфейки, до эпохи ИИ, существовали довольно давно. Просто они не были так массовы".

Ранний интернет изобиловал сайтами, где технологии использовались для "обнажения" знаменитостей. "Люди просто использовали Microsoft Paint", — говорит адвокат Силверстайн. Это был простой способ совмещать лица знаменитостей с порнографией. Позже появились программы вроде Adobe After Effects или FakeApp, предназначенные для замены лиц на изображениях или видео. Эти инструменты не требовали серьёзных навыков, что снижало порог входа. В сочетании с обилием видео порноисполнителей в сети, к 2010-м годам дипфейки с заменой лиц на реальных телах стали обыденностью. Когда позднее в том же десятилетии дипфейки с Галь Гадот и Эммой Уотсон вызвали массовую панику, их лица, как сообщалось, были наложены на тела порноактрис Пеппер XO и Мэри Муди соответственно.

Но использовались не только тела высокопоставленных актёров. Дженнифер была "очень незначительной исполнительницей", говорит она. "Если это произошло со мной, я думаю, это могло случиться с любым, кто снимался в порно". С 2006 года Силверстайн отмечает, что "многочисленные клиенты" обращались к нему с сообщениями: "Это моё тело, а на нём чьё-то другое лицо".

И люди, чьи лица появляются в дипфейках NCII, и те, чьи тела используются таким образом, могут испытывать серьёзный дистресс. Эксперты называют этот вид ущерба "телесным вредом", говорит Энн Краанен, исследователь гендерного насилия в британском Институте стратегического диалога. Этот термин отражает то, что, хотя контент существует в виртуальном пространстве, он может вызывать физиологические эффекты, включая дисморфию тела. Субъект с заменённым лицом попадает в "зловещую долину", искажая самовосприятие. Обнаружив свои лица в сексуальных дипфейках, многие люди чувствуют себя подавленными, рассказали мне эксперты; они могут "самоцензурироваться", как выражается Краанен, и отстраниться от публичной жизни. Эллисон Махони, адвокат, работающая с жертвами насилия, говорит, что люди, чьи лица появляются в NCII, могут испытывать депрессию, тревогу и суицидальные мысли: "Несколько моих клиентов говорили мне, что они не спят по ночам, что у них выпадают волосы".

Хотя влияние на людей, чьи тела используются, обсуждается или изучается не так часто, Дженнифер говорит, что это "действительно ужасное чувство, знать, что ты являешься частью чьего-то чужого злоупотребления". Она считает это сродни "новой форме сексуального насилия".

Неопределённость, связанная с незнанием того, что происходит с вашим телом в интернете, может быть крайне тревожной. Как и Дженнифер, многие взрослые актёры на самом деле не знают, что там существует. Однако некоторые преданные фанаты хорошо знают тела актёров — часто по татуировкам, шрамам или родимым пятнам — и "очень быстро сообщают [о дипфейках] исполнителям", — говорит Силверстайн. Или же исполнители сами случайно находят такой контент; например, около 20 лет назад первая клиентка, сообщившая Силверстайну об использовании её тела в дипфейке, искала Николь Кидман онлайн и обнаружила, что один из результатов показывал лицо Кидман на её теле из порно. "Она была опустошена, очевидно, потому что они взяли её тело", — говорит он, "и монетизировали его".

Иначе подобные изображения могут быть обнаружены такими организациями, как Takedown Piracy, одной из компаний по защите авторских прав, обслуживающих создателей взрослого контента. Доказать нарушение авторских прав в США сложно, если тело не имеет отличительных признаков, говорит Реба Рокет, операционный и маркетинговый директор Takedown Piracy. Но Рокет утверждает, что её команда внедрила технологию цифрового отпечатка в материалы клиентов, чтобы выявлять и удалять проблемные видео, часто находя их до того, как клиенты узнают об их появлении в сети. Собирая "десятки тысяч мельчайших визуальных точек данных" из видео, цифровой отпечаток создаёт уникальные файлы, которые используются для идентификации, — это похоже на невидимый водяной знак. Отпечатки сохраняются, даже если пираты изменяют видео или заменяют лица исполнителей. Takedown Piracy проиндексировала более полумиллиарда видео и добилась удаления 130 миллионов защищённых авторским правом видео только из Google (хотя Рокет не отслеживала, сколько из них содержали чужое лицо на теле исполнителя).

Помимо авторских прав, для борьбы с NCII можно использовать различные юридические инструменты, говорит Эрик Голдман, профессор права из Университета Санта-Клары. Например, жертвы могут заявить о вторжении в частную жизнь. Однако применение этих инструментов не всегда прямолинейно, и они могут быть неприменимы, когда речь идёт о чьём-то теле. Если, например, отсутствуют уникальные маркеры, указывающие на принадлежность тела в дипфейке конкретному человеку, законодательство США "на самом деле не трактует [такой контент] как вторжение в частную жизнь", — говорит Голдман, "поскольку мы не знаем, кому его приписать". В исследовании 2018 года, посвящённом "судебному разрешению" дел, связанных с NCII, Голдман обнаружил, что одним из успешных способов выигрыша дел истцами было утверждение "умышленного причинения эмоционального страдания". Но и здесь это зависит от возможности чётко идентифицировать человека в контенте. Соответствующие законы, добавляет он, могут также требовать "намерения причинить вред человеку", что может быть сложно доказать для тех, чьи тела фигурируют без лица.

"ИИ-девушки сделают всё, что вы захотите"

По словам Силверстайна, в последние годы всё реже встречаются тела реальных создателей взрослого контента в дипфейках, по крайней мере, в форме, позволяющей их однозначно идентифицировать.

Иногда тела манипулируются с помощью ИИ или простых инструментов редактирования. Это может быть элементарное удаление родимого пятна или изменение размера части тела — незначительные изменения, которые делают идентификацию изображения невозможной без всяких сомнений. Поэтому даже порноактёры, которые чувствуют, что их тело было использовано в качестве основы для изменённого изображения, не смогут далеко продвинуться в правовом поле. "Многие говорят: Это похоже на моё тело", — рассказывает Силверстайн, но на вопрос "Как?" отвечают: Просто похоже. В то же время другие пользователи теперь создают NCII с полностью сгенерированными ИИ телами. В приложениях для "обнажения" (nudify apps) любой, кто хоть немного разбирается в технологиях, может загрузить фотографию одетого человека и заменить её на фальшивое обнажённое изображение. "Таким образом, очень много контента создаётся просто с чьим-то лицом на ИИ-теле", — отмечает Силверстайн.

Подобные приложения недавно привлекли много внимания, например, в случаях "обнажения" несовершеннолетних Grok или рекламы Meta для приложения Crushmate (на которое Meta позже подала в суд). Однако крайне мало внимания уделяется контенту, используемому для их обучения. Эти системы почти наверняка опираются на более чем 10 000 терабайт онлайн-порнографии, и у исполнителей практически нет никаких средств правовой защиты.

Одна из причин в том, что создатели не могут с уверенностью доказать, что их контент используется для обучения ИИ-моделей, подобных тем, что применяются в приложениях для "обнажения". "Эти системы — все чёрный ящик", — говорит Хани Фарид, профессор Калифорнийского университета в Беркли, специализирующийся на цифровой криминалистике. Но "учитывая повсеместность" взрослого контента, добавляет он, это "разумное предположение", что онлайн-порно используется для обучения ИИ. "Найти порнографические наборы данных в интернете совершенно несложно", — говорит Стивен Каспер, докторант по информатике в Массачусетском технологическом институте, исследующий дипфейки. Более того, по его словам, множество теневых онлайн-сообществ предоставляют "руководства пользователя" по использованию этих данных для обучения ИИ, особенно для программ, генерирующих обнажённые тела.

Неизвестно, подпадает ли эта деятельность под юридическое определение "добросовестного использования" в США — вопрос, который сейчас оспаривается в нескольких судебных процессах с участием других типов создателей контента. Однако Каспер утверждает, что даже если это так, этически сомнительно, чтобы порнография, созданная по обоюдному согласию 10 лет назад, попадала в эти обучающие наборы данных. Когда люди "используют их материалы таким образом, который не уважает и не отражает разумные ожидания, которые у них были в то время относительно того, что они создавали и как это будет использоваться", — говорит он, — возникает "законное ощущение, что это своего рода... несогласие". Взрослые исполнители, начавшие работать много лет назад, никак не могли дать согласие на ИИ; Дженнифер называет риски, связанные с ИИ, "ретроактивно наложенными". Контракты, которые порноактёры подписывали до появления ИИ, добавляет Силверстайн, могли предусматривать, что "издатель мог делать что угодно с контентом, используя технологии, которые существуют сейчас или будут открыты в будущем". Это казалось более безобидным, когда речь шла о переходе от VHS к DVD, поскольку это не меняло сам контент, а лишь способ его передачи. Совершенно другая перспектива — использование вашего контента для обучения программы для создания нового контента... контента, который мог бы полностью заменить вашу работу.

Конечно, всё это влияет на прибыль создателей — не в отличие от того, как ИИ-обзоры Google влияют на доходы онлайн-издателей, которые перестали получать клики, довольствуясь сгенерированными ИИ резюме. "Их беспокоит, что это ещё один способ пиратства их контента", — говорит Рокет. В конце концов, независимые создатели не просто "занимаются сексом на камеру", как выражается создательница взрослого контента Элли Ив Нокс. Они платят за съёмочное оборудование и аренду локаций, а затем тратят часы на редактирование и маркетинг. А чтобы кто-то потом скопировал и исказил этот контент "для собственного развлечения или финансовой выгоды", — говорит она, — "это чертовски отвратительно".

Таня Тейт, давняя создательница взрослого контента, рассказала мне о другой крайне тревожной ситуации, созданной ИИ: недавно она общалась с фанатом в приложении для секстинга Mynx, когда он спросил её, знает ли она его. Она ответила отрицательно, и "его глаза просто наполнились слезами", — говорит Тейт. Он был расстроен, потому что думал, что она его знает. Оказалось, он отправил 20 000 долларов мошеннику, который использовал ИИ-сгенерированный дипфейк Тани, чтобы соблазнить его. Таня впоследствии узнала, что несколько мужчин были обмануты ИИ-версией её самой, и некоторые из них начали обвинять её в своих потерях и публиковать ложные заявления о ней в интернете. Когда она сообщила о особенно агрессивном преследователе в полицию, ей сказали, что он реализует свою "свободу слова", — говорит она. Рокет также знакома с ситуациями, когда ИИ используется для обмана фанатов. "Реальный создатель контента получает неприятные электронные письма от этих людей, которые были обмануты", — говорит она.

Другие порноактёры опасаются, что их образы использовались без их согласия для действий, на которые они не пошли бы в реальной жизни. Например, Октавия Ред говорит, что не снимается в анальных сценах, "но я уверена, что есть тонны дипфейковых анальных видео со мной, на которые я не давала согласия". Она боится, что это может стоить ей потери подписчиков, если зрители предпочтут смотреть эти видео вместо подписки на её официальные сайты, и сформировать у фанатов ложные ожидания относительно её контента.

"Я видела, как один ИИ-создатель говорил: 'Ну, ИИ-девушки сделают всё, что вы захотите. Они не говорят нет'", — рассказывает Рокет. "Это ужасает меня... особенно если они обучают эти ИИ-модели на реальных людях. Я не думаю, что они понимают ущерб психическому здоровью или репутации, который это может нанести. И как только это попадает в интернет, оно остаётся там навсегда".

Попытки "удалить взрослый контент из интернета"

По мере совершенствования ИИ-технологий людям становится всё труднее самостоятельно отличить реальное видео от лучших ИИ-генерированных. В одном исследовании 2025 года Фарид из Калифорнийского университета в Беркли обнаружил, что участники правильно идентифицировали голоса, сгенерированные ИИ, примерно в 60% случаев (немногим лучше случайного угадывания), в то время как такие достижения, как фальшивые сердцебиения, делают ИИ-генерируемых людей сложнее, чем когда-либо, для обнаружения. Тем не менее, большинство юристов и экспертов по праву, с которыми я общался, заявили, что законы об авторском праве по-прежнему являются лучшей надеждой взрослых исполнителей в правовой системе США, по крайней мере, для удаления контента с заменёнными лицами. Для своих клиентов, говорит Силверстайн, он пытается выяснить происхождение контента, а затем подавать запросы на удаление в соответствии с Законом об авторском праве в цифровую эпоху (DMCA) — законом 1998 года, который адаптировал закон об авторском праве для интернет-эпохи. "Даже недавно у меня была исполнительница с невероятно известной татуировкой", — говорит он, — "и с помощью повестки DMCA мне удалось идентифицировать того, кто опубликовал контент, который добровольно удалил его".

Но такой подход становится всё более редким. Сегодня почти "невозможно", — говорит Силверстайн, — определить, кто создал дипфейк, потому что многие платформы, размещающие пиратский контент, работают анонимно. Часто они базируются в странах, которые "не особо заботятся о законодательстве США в отношении авторских прав", — отмечает Рокет, — таких как Россия, Сейшельские Острова и Нидерланды.

В то время как правительства ЕС, Великобритании и Австралии заявили о запрете или ограничении доступа к приложениям для "обнажения", это не так просто реализовать. Как отмечает Краанен, когда магазины приложений удаляют такие сервисы, они часто просто появляются под другими названиями, предоставляя те же услуги. А социальные платформы, где люди делятся дипфейками NCII, утверждает Рокет, бездействуют в их удалении. "Это бесконечно, и это абсурдно, потому что такие места, как X (ранее Twitter) и Facebook, обладают той же технологией, что и мы", — говорит Рокет. "Они могут мгновенно идентифицировать что-либо как нарушение, но они предпочитают этого не делать".

В то время как порноактёры вынуждены сталкиваться с угрозами, связанными с ИИ, единственный действующий федеральный закон, касающийся дипфейков, может им не сильно помочь — и даже усугубить ситуацию. Закон "Take It Down Act", принятый в США в прошлом году, криминализирует публикацию NCII и требует от веб-сайтов удалять такой контент в течение 48 часов. Но, как отмечает Фарид, эту меру можно использовать как оружие, сообщая о легально созданном и согласованном порно, утверждая, что это NCII. Это может привести к удалению контента, что нанесёт ущерб его создателям. Голдман из Университета Санта-Клары указывает на "Проект 2025", политический план Heritage Foundation для второй администрации Трампа, который направлен на полное удаление порнографии из интернета. Закон "Take It Down Act", утверждает он, "позволяет скоординированные усилия по очистке интернета от взрослого контента".

Законодатели США имеют историю нанесения вреда секс-работникам в своих попытках регулировать откровенный контент онлайн. Примером служат законы штатов о проверке возраста; посетители довольно легко обходят эти меры, но они всё равно могут привести к снижению доходов взрослых исполнителей (из-за уменьшения трафика на эти сайты и высокой стоимости услуг по проверке возраста, которые им приходится приобретать).

"Они постоянно что-то делают, чтобы навредить порноиндустрии, но не так, чтобы это действительно помогало секс-работникам", — говорит Дженнифер. "Если они что-то и делают, то снова отнимают ваш доход — вместо того, чтобы дать вам больше прав на ваше изображение, что было бы чрезвычайно полезно".

Но поскольку генеративный ИИ играет всё большую роль в дипфейках NCII, типы изображений, на которые взрослые исполнители имеют права, всё глубже уходят в "серую зону". Могут ли актёры претендовать на ИИ-изображения, вероятно, обученные на их телах? А как насчёт ИИ-сгенерированных видео, которые их имитируют, как то, что обмануло фаната Тани Тейт?

Самая большая задача — создание "законных, эффективных законов, которые абсолютно защитят создателей контента от злоупотребления их внешностью для обучения и создания ИИ", — говорит Рокет. "В противном случае нам просто придётся продолжать удалять фальшивый контент из интернета".

Тем временем, как рассказывают мне несколько порноактёров, они пытаются использовать законы об авторском праве, которые не были изначально созданы для них; они заключают контракты с платформами, размещающими их ИИ-генерированные дубликаты, где фанаты платят за общение. Частично это делается для того, чтобы иметь контракты, защищающие право собственности на их ИИ-образ. Когда я общался с актрисой Кики Дэйр в сентябре 2025 года для статьи об "ИИ-близнецах" взрослых создателей, она сказала, что "владеет своим ИИ", потому что подписала контракт с Spicey AI, сайтом, который размещал ИИ-дубликаты взрослых исполнителей. Если бы другая компания или человек создали её ИИ-генерированный образ, добавила она, "у меня есть основания, чтобы это остановить".

Однако даже это не даёт полной гарантии; Spicey AI, например, закрылся через несколько месяцев после моего разговора с Дэйр, поэтому маловероятно, что её контракт остаётся в силе. А когда в октябре я беседовал с Рэйчел Кавалли, ещё одной взрослой актрисой, подписавшей контракт с сайтом ИИ-дубликатов в надежде защитить свой ИИ-образ, она признала: "У меня нет времени сидеть и искать компании, которые использовали моё изображение или превратили что-то в видео, чего я на самом деле не делала... это очень много работы". Иными словами, наличие прав на ваш ИИ-образ на бумаге не облегчает отслеживание всех потенциально бесконечных нарушений этих прав в интернете.

Если бы она знала о сегодняшних технологиях, говорит Дженнифер, она не стала бы заниматься порно. Риски слишком возросли и стали слишком непредсказуемыми. Теперь она занимается очной секс-работой; это "не обязательно безопаснее", говорит она, "но это другой профиль риска, с которым я чувствую себя более подготовленной справиться". К тому же, она считает, что ИИ вряд ли заменит личных секс-работников так, как он мог бы заменить порноактёров: "Я не думаю, что будут роботы-стриптизёрши".

Похожие новости в рубрике «Советы и лайфхаки»

Все материалы →
Готовность данных для агентного ИИ в сфере финансовых услуг
Советы и лайфхаки

Готовность данных для агентного ИИ в сфере финансовых услуг

Компании, работающие в сфере финансовых услуг, сталкиваются с особыми требованиями к бизнес-ИИ. Этот сектор является одним из самых строго регулируемых, и при этом он должен мгновенно реагировать на постоянно меняющиеся внешние события. Поэтому успех агентного ИИ в финансах определяется не стол

15 мая 2026 г. · Эдуард Неверов
1 мин
Технологический Дайджест: Дипфейк-Порно, Утечки Данных ИИ и Прорыв Электрических Грузовиков Tesla
Советы и лайфхаки

Технологический Дайджест: Дипфейк-Порно, Утечки Данных ИИ и Прорыв Электрических Грузовиков Tesla

Шокирующее использование тел людей в дипфейк-порно Женщина по имени Дженнифер, проверяя свою новую профессиональную фотографию через программу распознавания лиц, обнаружила нечто неожиданное. Система показала ей не только старые видео, которые она сделала более десяти лет назад, но и одно

15 мая 2026 г. · Егор Вихрев
1 мин
Обеспечение суверенитета ИИ и данных в эпоху автономных систем
Советы и лайфхаки

Обеспечение суверенитета ИИ и данных в эпоху автономных систем

Когда генеративный искусственный интеллект (ИИ) только начал переходить из исследовательских лабораторий в реальные бизнес-приложения, предприятия заключили негласную сделку: "Возможности сейчас, контроль потом". Передавая свои конфиденциальные данные сторонним моделям ИИ, они получали впечатля

14 мая 2026 г. · Егор Вихрев
1 мин
Производство лекарств на орбите и ядерный космический корабль NASA
Советы и лайфхаки

Производство лекарств на орбите и ядерный космический корабль NASA

План по производству лекарств на орбите становится коммерческим Стартап Varda Space Industries делает ставку на то, что будущее фармацевтики находится на орбите. Компания заключила соглашение с United Therapeutics для проверки, как лекарства кристаллизуются в условиях микрогравитации, что

13 мая 2026 г. · Дмитрий Ярославцев
1 мин
Мировые Модели: 10 Важнейших Аспектов ИИ Прямо Сейчас
Советы и лайфхаки

Мировые Модели: 10 Важнейших Аспектов ИИ Прямо Сейчас

Мировые модели (World Models) недавно были включены в список десяти наиболее значимых направлений в развитии искусственного интеллекта на сегодняшний день. Эксперты объясняют, почему эта развивающаяся область ИИ привлекает такое пристальное внимание в современном мире технологий.

12 мая 2026 г. · Дмитрий Ярославцев
1 мин
Нобелевский лауреат об ИИ и важность поддержания: Главные новости технологий
Советы и лайфхаки

Нобелевский лауреат об ИИ и важность поддержания: Главные новости технологий

Что ждет ИИ: Взгляд лауреата Нобелевской премии по экономике Даррон Асемоглу, удостоенный Нобелевской премии по экономике, за несколько месяцев до вручения награды опубликовал работу, которая вызвала неоднозначную реакцию в Кремниевой долине. В ней он утверждал, что искусственный интеллект

12 мая 2026 г. · Егор Вихрев
1 мин