Разделы


DeepFake - Дипфейки - методика синтеза изображения, основанная на искусственном интеллекте
+
Финансовый сектор - Банковская отрасль экономики - Кредитно-финансовые организации - Сектор финансовых корпораций - банковские операции - банковские услуги


26.12.2024 Вячеслав Касимов, МКБ: Чрезмерная надежда на превентивные меры не менее вредна, чем фокусирование исключительно на реагировании
16.12.2024 Циклон угроз: эксперты F.A.C.C.T. назвали основные тренды вымогателей, утечек и фишинга в 2024 году
18.12.2024 «Сбер» и МВД России будут разрабатывать и совершенствовать технологии для борьбы с дипфейками
23.12.2024 Лидия Сирик, АБ «Россия»: Несмотря на хайп, сейчас ИИ применяется лишь для выдачи рекомендаций и подсказок
10.01.2025 Positive Technologies: какие технологии станут целью атак хакеров в 2025 году
31.01.2025 Kaspersky Who Calls: в 2024 г. больше половины пользователей столкнулись с телефонным мошенничеством
11.02.2025 С доставкой на дом: мошенники присылают жертвам фальшивые бумажные повестки с Лубянки
25.02.2025 Новые формы хактивизма станут дополнительным риском для информационной безопасности российских компаний в 2025 году
10.03.2025 Полиция рекомендует россиянам обновить Telegram ради одной новой функции
13.03.2025 Артур Усманов, директор ЦИТ Тюменской области: Сегодня одной из основных угроз являются хактивисты
17.03.2025 Полиция предупредила россиян о новой схеме мошенников с SIM-картами
19.03.2025 Positive Technologies: в 2024 г. число кибератак на Юго-Восточную Азию выросло в два раза
19.03.2025 Группа ЦРТ обновила решение для анализа и контроля качества коммуникаций Smart Logger
20.03.2025 Positive Technologies предупреждает о росте числа кибератак через поддельную CAPTCHA
24.03.2025 Россияне не боятся искусственного интеллекта и используют его чаще, чем им кажется
26.03.2025 В России создали ИИ для выявления мошенников в цифровых каналах обслуживания
31.03.2025 МТС запустила ИИ-решение для фильтрации SMS-спама
09.04.2025 Как бизнесу понять, насколько хорошо работает ИИ: каскадное тестирование и дообучение нейросетевых моделей
05.05.2025 МВД предупреждает: появился новый способ шантажа подростков в соцсетях
12.05.2025 Россияне под ударом. В интернете появился новый способ кражи данных для опустошения банковских счетов
14.05.2025 МТС ID внедрил технологию распознавания дипфейков для защиты от мошенничества
19.05.2025 Российский разработчик запатентовал в США технологию проверки подлинности документов на основе ИИ
23.05.2025 Positive Technologies: количество фишинговых атак выросло на треть за год
05.06.2025 В России внедрят технологию распознавания дипфейков в решениях для видеоконференцсвязи
10.06.2025 Власти хотят ввести уголовное наказание за мошенничество с использованием ИИ. Ожидаются сроки до 15 лет
11.06.2025 В России создан ИИ, распознающий лица прямо в браузере, «не используя биометрию»
* Страница-профиль компании, системы (продукта или услуги), технологии, персоны и т.п. создается редактором на основе анализа архива публикаций портала CNews. Обрабатываются тексты всех редакционных разделов (новости, включая "Главные новости", статьи, аналитические обзоры рынков, интервью, а также содержание партнёрских проектов). Таким образом, чем больше публикаций на CNews было с именем компании или продукта/услуги, тем более информативен профиль. Профиль может быть дополнен (обогащен) дополнительной информацией, в т.ч. презентацией о компании или продукте/услуге.

Обработан архив публикаций портала CNews.ru c 11.1998 до 06.2025 годы.
Ключевых фраз выявлено - 1365428, в очереди разбора - 751158.
Создано именных указателей - 176823.
Редакция Индексной книги CNews - book@cnews.ru

Читатели CNews — это руководители и сотрудники одной из самых успешных отраслей российской экономики: индустрии информационных технологий. Ядро аудитории составляют топ-менеджеры и технические специалисты департаментов информатизации федеральных и региональных органов государственной власти, банков, промышленных компаний, розничных сетей, а также руководители и сотрудники компаний-поставщиков информационных технологий и услуг связи.