Aktywuj subskrypcję >
Dodawanie urządzeń lub aktualizacja >
Odnów subskrypcję >
Secure Hub >
Nie masz konta? Zarejestruj się >
< Products
Masz aktualną infekcję komputera?
Martwisz się, że to oszustwo?
Wypróbuj nasz program antywirusowy w ramach bezpłatnej, w pełni funkcjonalnej 14-dniowej wersji próbnej
Uzyskaj bezpłatny zestaw narzędzi bezpieczeństwa cyfrowego
Znajdź odpowiednią cyberochronę dla siebie
< Business
< Pricing
Chroń swoje urządzenia i dane
Ochrona urządzeń i danych zespołu - bez konieczności posiadania umiejętności informatycznych
Poznaj wielokrotnie nagradzane zabezpieczenia punktów końcowych dla Twojej firmy
< Resources
< Support
Klienci Malwarebytes i Teams
Klienci Nebula i Oneview
Od przeglądarek z funkcją agenta po asystentów czatu – te same narzędzia, które zostały stworzone, aby nam pomagać, mogą również nas narażać.
Nowe badania firmy Anthropic pokazują, jak łatwo można zatruć modele sztucznej inteligencji – dowodząc, że nawet niewielkie manipulacje mogą mieć ogromne skutki.
Dawno minęły czasy, gdy wymuszenia były tylko fabułą dramatów kryminalnych - dziś te groźne taktyki są wymierzone w każdego, kto ma smartfona, zwłaszcza w pokolenie Z.
Twórca ChatGPT wypuścił na początku tego miesiąca zestaw narzędzi, które mają pomóc chronić jego sztuczną inteligencję przed atakami. Niemal natychmiast ktoś go złamał.
Dwie aplikacje AI „dziewczyna” ujawniły miliony intymnych rozmów ponad 400 000 użytkowników.
Naukowcy odkryli metodę, którą nazwali Mic-E-Mouse, która zamienia mysz komputerową w szpiega, który może podsłuchiwać rozmowy użytkownika.
Meta ogłosiła, że zacznie wykorzystywać interakcje użytkowników z generatywną sztuczną inteligencją do wyświetlania reklam ukierunkowanych.
Pakiet Gemini AI firmy Google miał luki w zabezpieczeniach, które umożliwiały atakującym ukrywanie złośliwych instrukcji w codziennej aktywności internetowej.
Aplikacja o nazwie Neon Mobile, która za niewielką opłatą zapewnia prywatność, szturmuje listę popularności w amerykańskim sklepie Apple App Store.