Активировать подписку >
Добавление устройств или обновление >
Обновить подписку >
Безопасный концентратор >
У вас нет учетной записи? Зарегистрируйтесь >
< Products
Заражен ли компьютер?
Опасаетесь, что это мошенничество?
Попробуйте наш антивирус с помощью бесплатной полнофункциональной 14-дневной пробной версии.
Получите бесплатный набор инструментов для обеспечения цифровой безопасности
Найдите подходящий вариант киберзащиты
< Business
< Pricing
Защитите свои персональные устройства и данные
Защитите устройства и данные вашей команды - для этого не нужны навыки работы с ИТ.
Узнайте о передовых технологиях защиты конечных точек для вашего бизнеса.
< Resources
< Support
Malwarebytes и клиенты Teams
Клиенты Nebula и OneView
Исследователи обнаружили 16 вредоносных расширений для браузеров, которые могут незаметно перехватить активные сеансы ChatGPT и похитить данные пользователей.
Исследователи продемонстрировали, как скрытая в календарном приглашении быстрая инъекция может обойти средства контроля конфиденциальности и превратить ИИ-помощника в соучастника утечки данных.
Исследователи обнаружили способ кражи данных пользователей Microsoft Copilot с помощью одной вредоносной ссылки.
Извинения Grok вряд ли положат конец этой истории после того, как инструмент искусственного интеллекта был использован для создания контента, который может представлять собой незаконные материалы с изображением сексуального насилия над детьми.
Связывание ваших медицинских записей с ChatGPT Health может дать вам персонализированные ответы по вопросам здоровья, но это также сопряжено с серьезными последствиями для конфиденциальности.
Создав контент, который может нарушать законы США о материалах, связанных с сексуальным насилием над детьми, Grok еще раз подчеркивает, насколько неэффективными могут быть меры защиты на основе искусственного интеллекта.
Список тем, которые мы освещали в период с 29 декабря 2025 года по 4 января 2026 года
Несколько историй, связанных с ИИ в 2025 году, показали, как быстро системы ИИ могут выйти за пределы значимого контроля со стороны человека.
Мы исследуем, как быстрый рост искусственного интеллекта (ИИ) подвергает пользователей риску.