Подростки «нюдифайят» друг друга, а взрослые не знают, что делать.
Использование Для просмотра ссылки Войдиили Зарегистрируйся подростками для создания порнографических изображений своих сверстников становится серьёзной проблемой, к которой оказались не готовы ни школы, ни полиция, ни законы. Об этом говорится в новом Для просмотра ссылки Войди или Зарегистрируйся Stanford Cyber Policy Center, основанном на анализе официальных документов и интервью с жертвами, родителями, полицейскими, сотрудниками онлайн-платформ и НПО.
Исследование показывает, что технологии, которые ранее применялись для безобидных задач вроде написания школьных сочинений, теперь активно используются детьми для создания сексуализированных изображений других детей. Причём речь идёт не о чём-то скрытом: в интернете открыто обсуждаются «нюдифай»-приложения, делящиеся инструкциями, и пользователи из стран, где подобные действия не считаются преступлением, создают ощущение нормы и легитимности. Это чувство подкрепляется тем, что подобные инструменты легко доступны в Google Play и App Store, а их реклама распространяется через TikTok и Instagram*.
По словам одного из специалистов, работающего в области цифровой безопасности, в Сети насчитываются сотни таких приложений, при этом почти ни одно из них не имеет встроенных ограничений, исключающих создание детской порнографии. Даже профессионалы сталкиваются с новыми ИИ-инструментами, о которых раньше не слышали, в то время как среди школьников обсуждение таких приложений — обычное явление.
Авторы доклада подчёркивают, что несмотря на то, что 38 штатов США приняли законы, касающиеся ИИ-порнографии с участием несовершеннолетних, большинство этих законов не учитывали столь частый сценарий, как «подросток против подростка». Новые законодательные инициативы только сейчас начинают определять использование «нюдифай»-приложений в отношении сверстников как форму Для просмотра ссылки Войдиили Зарегистрируйся .
В одном из эпизодов школьница узнала, что кто-то создал её обнажённое изображение с помощью ИИ. Сначала она не поверила, ведь ей казалось, что ИИ нужен только для написания эссе. Другие жертвы рассказывали о шоке от увиденного — изображения были настолько реалистичны, что выглядели как настоящие фото. Одна из матерей призналась, что ожидала «что-то вроде фотошопа», но то, что она увидела, казалось подлинным. Другая школьница рассказала, что её фото с обычного сайта было превращено в «изображение монстра с грудями», и она чувствовала полную потерю контроля.
После того как изображения становятся известны, дети сталкиваются с травлей, отстранённостью, трудностями в учёбе и даже утратой доверия к учителям. Одна школьница написала в письме сотрудникам школы, что не могла чувствовать себя в безопасности, была выбита из колеи, а окружавшие её слухи и расследование помешали сосредоточиться на учёбе.
Некоторые родители выражают беспокойство по поводу последствий — не только текущих, но и будущих. Один из страхов — что фейковые изображения могут всплыть позже и повлиять на поступление в колледж, карьеру или личную жизнь подростка. Некоторые матери боятся, что даже преподаватели не захотят писать рекомендации из-за шума вокруг подобных историй.
Проблема обостряется тем, что многие школы до сих пор не знают, как действовать в подобных ситуациях. По Для просмотра ссылки Войдиили Зарегистрируйся Центра демократии и технологий, 62% учителей не получили инструкций по обращению с такими инцидентами. А 56% не проходили никакого обучения, связанного с ИИ и Для просмотра ссылки Войди или Зарегистрируйся . Один из консультантов отметил, что в большинстве школ есть планы действий на случай вооружённого нападения, но нет никакой подготовки к случаю распространения ИИ-созданных интимных изображений учащихся.
В докладе предлагается комплекс рекомендаций: от предоставления жертвам доступа к сторонним психологам и послаблений в учёбе — до создания коммуникационных шаблонов для информирования сообщества и подключения школьных юристов для оценки правовых обязательств. Особенно подчёркивается важность анонимных каналов для сообщений: в нескольких случаях такие инциденты были раскрыты именно через т.н. «тихие линии» (например, школьные онлайн-формы для сообщений о травле).
Авторы исследования не дают чёткого ответа, стоит ли рассказывать ученикам о «нюдифай»-приложениях, поскольку есть риск, что сама информация спровоцирует их интерес и вовлечённость. Однако в условиях, когда дети в буквальном смысле могут создать фейковое интимное изображение за минуту, вопрос становится всё менее теоретическим — и всё более Для просмотра ссылки Войдиили Зарегистрируйся .
<span style="font-size: 7pt;">* Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ. </span>
Использование Для просмотра ссылки Войди
Исследование показывает, что технологии, которые ранее применялись для безобидных задач вроде написания школьных сочинений, теперь активно используются детьми для создания сексуализированных изображений других детей. Причём речь идёт не о чём-то скрытом: в интернете открыто обсуждаются «нюдифай»-приложения, делящиеся инструкциями, и пользователи из стран, где подобные действия не считаются преступлением, создают ощущение нормы и легитимности. Это чувство подкрепляется тем, что подобные инструменты легко доступны в Google Play и App Store, а их реклама распространяется через TikTok и Instagram*.
По словам одного из специалистов, работающего в области цифровой безопасности, в Сети насчитываются сотни таких приложений, при этом почти ни одно из них не имеет встроенных ограничений, исключающих создание детской порнографии. Даже профессионалы сталкиваются с новыми ИИ-инструментами, о которых раньше не слышали, в то время как среди школьников обсуждение таких приложений — обычное явление.
Авторы доклада подчёркивают, что несмотря на то, что 38 штатов США приняли законы, касающиеся ИИ-порнографии с участием несовершеннолетних, большинство этих законов не учитывали столь частый сценарий, как «подросток против подростка». Новые законодательные инициативы только сейчас начинают определять использование «нюдифай»-приложений в отношении сверстников как форму Для просмотра ссылки Войди
В одном из эпизодов школьница узнала, что кто-то создал её обнажённое изображение с помощью ИИ. Сначала она не поверила, ведь ей казалось, что ИИ нужен только для написания эссе. Другие жертвы рассказывали о шоке от увиденного — изображения были настолько реалистичны, что выглядели как настоящие фото. Одна из матерей призналась, что ожидала «что-то вроде фотошопа», но то, что она увидела, казалось подлинным. Другая школьница рассказала, что её фото с обычного сайта было превращено в «изображение монстра с грудями», и она чувствовала полную потерю контроля.
После того как изображения становятся известны, дети сталкиваются с травлей, отстранённостью, трудностями в учёбе и даже утратой доверия к учителям. Одна школьница написала в письме сотрудникам школы, что не могла чувствовать себя в безопасности, была выбита из колеи, а окружавшие её слухи и расследование помешали сосредоточиться на учёбе.
Некоторые родители выражают беспокойство по поводу последствий — не только текущих, но и будущих. Один из страхов — что фейковые изображения могут всплыть позже и повлиять на поступление в колледж, карьеру или личную жизнь подростка. Некоторые матери боятся, что даже преподаватели не захотят писать рекомендации из-за шума вокруг подобных историй.
Проблема обостряется тем, что многие школы до сих пор не знают, как действовать в подобных ситуациях. По Для просмотра ссылки Войди
В докладе предлагается комплекс рекомендаций: от предоставления жертвам доступа к сторонним психологам и послаблений в учёбе — до создания коммуникационных шаблонов для информирования сообщества и подключения школьных юристов для оценки правовых обязательств. Особенно подчёркивается важность анонимных каналов для сообщений: в нескольких случаях такие инциденты были раскрыты именно через т.н. «тихие линии» (например, школьные онлайн-формы для сообщений о травле).
Авторы исследования не дают чёткого ответа, стоит ли рассказывать ученикам о «нюдифай»-приложениях, поскольку есть риск, что сама информация спровоцирует их интерес и вовлечённость. Однако в условиях, когда дети в буквальном смысле могут создать фейковое интимное изображение за минуту, вопрос становится всё менее теоретическим — и всё более Для просмотра ссылки Войди
<span style="font-size: 7pt;">* Компания Meta и её продукты (включая Instagram, Facebook, Threads) признаны экстремистскими, их деятельность запрещена на территории РФ. </span>
- Источник новости
- www.securitylab.ru