Вы используете устаревший браузер. Этот и другие сайты могут отображаться в нём некорректно. Вам необходимо обновить браузер или попробовать использовать другой.
Google представляет ряд технологий, который сделает автономные машины ещё умнее и безопаснее.
Команда DeepMind , подразделение Google , представила значительные улучшения в области робототехники, направленные на повышение скорости, эффективности и безопасности роботов в реальных...
Топ-15 открытых инструментов, полезных для каждого ИБ-специалиста.
В мире кибербезопасности программные инструменты с открытым исходным кодом выступают ключевыми активами, позволяя организациям усиливать свои защитные меры против постоянно развивающихся угроз.
Эти инструменты...
Компания представила технологии, которые радикально изменят наш повседневный цифровой опыт.
Компания Apple , известная своим закрытым подходом к разработке и нежеланием участвовать в цифровой шумихе, совершила значительный шаг вперёд в области искусственного интеллекта. Несмотря на свою...
Разработка японских исследователей поражает качеством имитации человеческих поз и эмоций.
В Токийском университете разработали уникального робота-гуманоида под названием Alter3, отличительной фишкой которого стало прокачанное невербальное общение, благодаря чему в процессе разговора с...
Ученые допросили ИИ, обойдя этические ограничения и запреты.
Исследователи из Университета Пердью, США, разработали метод допроса больших языковых моделей (Large Language Model, LLM ), позволяющий обходить их этические ограничения. Метод, названный LINT, использует статистические данные...
По запросу Белого Дома компания создала инструменты для оценки безопасности моделей.
Компания Meta* объявила о выпуске комплекса инструментов для обеспечения безопасности и оценки генеративных моделей искусственного интеллекта (ИИ). Набор инструментов получил название Purple Llama и...
Ценные уроки из прошлого для современного искусственного интеллекта.
В недавнем исследовании под названием «Проходит ли GPТ-4 тест Тьюринга?», опубликованном на arXiv , учёные из Калифорнийского университета в Сан-Диего провели занимательное сравнение между живыми людьми, ИИ-моделями...
ChatGPT и аналоги оказались малополезны в реальных сценариях, лишь отнимая у злоумышленников драгоценное время.
Несмотря на обеспокоенность исследователей безопасности и правоохранительных органов некоторых стран по поводу злонамеренного использования ChatGPT и аналогичных LLM -моделей...
Объединённые усилия 18 стран призваны остановить злоупотребления искусственным интеллектом.
Великобритания и США, в сотрудничестве с партнёрами из 16 других стран, представили новые рекомендации для создания безопасных систем искусственного интеллекта.
Агентство по кибербезопасности и...
Интересный эксперимент показал перспективы развития отрасли кибербезопасности.
Команда специалистов Check Point недавно провела исследование возможностей GPT (Generative Pre-trained Transformer) в сфере анализа вредоносных программ на примере большой языковой модели GPT-4 от OpenAI ...
Как нейросети повлияют на развитие химии и фармацевтики в мире?
Ученые из Массачусетского технологического института ( MIT ) провели исследование, направленное на изучение масштабируемости глубоких нейронных сетей (Deep neural networks, DNN ) в области химии.
Результаты, опубликованные в...
Инвесторы рискуют потерять прибыльный источник доходов, если ИИ не дать свободу реализации.
Венчурная фирма Andreessen Horowitz ( A16z ), один из крупнейших финансовых спонсоров сферы искусственного интеллекта, выразила опасения по поводу нового регулирования данных для обучения. По мнению...
Сможет ли США удержать лидерство в сфере искусственного интеллекта?
Новый игрок в области искусственного интеллекта из Китая, стартап 01.AI , возглавляемый бизнесменом по имени Кай-Фу Ли, бывшим руководителем Google в Китае, привлёк внимание мировой общественности , выпустив открытую...
Роботы смогут захватить человечество, делая уроки с вашими детьми.
Группа китайских учёных из Microsoft Research Asia, Пекинского университета и Университета Сиань Цзяотун представила инновационную методику обучения языковых моделей (Large Language Model, LLM ). Основываясь на принципах...
Действительно ли прозрачность в языковых моделях жизненно необходима? Или без неё можно обойтись?
Исследователи из университета Стэнфорда недавно представили отчёт-индекс под названием «Foundation Model Transparency Index» или «FMTI», оценивающий прозрачность базовых моделей искусственного...
Официальный инструмент OpenAI может превратить чат-бот в участника ОПГ.
Согласно новому исследованию учёных, ограничивающие меры, разработанные для предотвращения вывода токсичного контента в больших языковых моделях (Large Language Model, LLM ), таких как GPT-3 .5 Turbo от OpenAI ...
Исследователи проверили, кто лучше справляется с онлайн-поиском. Что показал эксперимент?
Современные нейросети, работающие на основе больших языковых моделей ( LLM ), долгое время вызывали опасения из-за своей способности выдавать ответы, которые, хоть и кажутся правдоподобными, на самом...
Пользователи не останутся без альтернативы — ИИ уже внёс коррективы в процесс взаимодействия с ОС.
В последнем инсайдерском выпуске Windows 11 под номером билда 25967 компания Microsoft окончательно убрала приложение Cortana из своей операционной системы.
«После обновления до этой...
Большие языковые модели сулят большие изменения в кадровом составе.
Последний доклад Всемирного экономического форума (ВЭФ) привлекает внимание общественности к радикальным изменениям на глобальном рынке труда. Ожидается, что 23% мировых рабочих мест претерпят изменения в течение ближайших...
Чтобы стать хакером, нужно думать как хакер.
Разработчик мошеннического чат-бота FraudGPT активно прорабатывает усовершенствованные инструменты, использующие генеративные модели ИИ и технологии чат-бота Google Bard. Одно из новых разработок – модель большая языковая модель (Large Language...
Учёные выявили универсальный метод атаки, стирающий этические границы у всех популярных языковых моделей.
Исследователи из Школы компьютерных наук Университета Карнеги-Меллона, Института кибербезопасности и конфиденциальности CyLab, а также Центра безопасного ИИ в Сан-Франциско совместно...
Компании боятся потери доходов из-за ИИ.
Ведущие новостные издания недовольны тем, что их оригинальный контент используется компаниями-разработчиками ИИ для обучения генеративных ИИ-моделей. New York Times, News Corp , Axel Springer, IAC и другие компании формируют коалицию, чтобы...
Учёные оценили влияние ChatGPT на цифровую криминалистику.
Исследователи в области кибербезопасности из нескольких университетов оценили влияние ChatGPT , особенно GPT-4 , на цифровую криминалистику.
Быстрый прогресс в разработке больших языковых моделей (Large Language Model, LLM )...
Хакеры уже нашли способы, как можно манипулировать ИИ для кражи личных данных и паролей.
Исследователи Google выявили 6 основных типов атак на системы искусственного интеллекта, включая манипуляции с большими языковыми моделями (Large Language Model, LLM ), используемыми, например, в...
Неужели эпоха нейросетей закончится, не успев начаться?
В минувший вторник исследователи из Стэнфордского университета и Калифорнийского университета в Беркли опубликовали совместную научную работу, в которой утверждается, что ответы модели GPT-4 меняются с течением времени. Эта работа...