Блог Михаила Кафанова

Что не так с «Родительским контролем» SocialDataHub

3 октября

«Родительский контроль» от SocialDataHub — тот самый случай, когда лучше не делать ничего, чем это.

За 150 рублей в месяц SocialDataHub предлагают собирать и анализировать открытые данные со страниц вашего (всё только по подтверждению родственных связей) ребёнка в социальных медиа. Лендинг с сердечками радостно сообщает, что сервис предупредит, если ребёнок:

Заодно в компании обещают спасти мир детей от педофилов и подсказать, что с ними (детьми, не педофилами) настало время поговорить о сексе.

Критику проекта можно было бы начать с комментария психолога о таком подходе. Удивительно, но он не работает на выстраивание доверительных отношений с ребёнком.

Продолжить можно было бы спекуляцией вокруг технологий SocialDataHub. Ещё в начале года после интервью Inc мне (и знакомым, которые действительно работают с большими данными) показалось, что компания значительно больше про связи с чиновниками, чем про технологии. Парсить и анализировать открытые источники в России отлично умеют многие, а вот прошлое в «Апостоле» Канделаки — не у каждого. Некоторые моменты из материала тоже намекали. Например, ниже основатель SocialDataHub Артур Хачуян описывает не ближайшее будущее, а не самое ближайшее прошлое.

Это очень перспективная отрасль. Сейчас 90% рекламы в интернете — мусор. Остальные 10% начинают работать только тогда, когда тебе потребуется товар. Скажем, ищешь в интернете холодильник. Следующую пару недель ВКонтакте и Facebook выдают тебе рекламу холодильников. А теперь представьте максимально персонализированную рекламу, которая предугадывает ваши нужды и отзывается на них заранее. Вот это и есть ближайшее будущее Big Data-аналитики.

А закончил бы я не опасениями о сохранности данных детей, как глава «Роскомсвободы» (эти данные уже тысячи раз спарсили), а простым мысленным экспериментом.

Представьте, что каждым «серьёзным разговором» в семье управляет простенький алгоритм. Не искусственный интеллект, не data-driven research & analysis team, ничего модного. Простенький алгоритм. И вот однажды алгоритм решает, что родителям надо срочно поговорить с ребёнком о его сборах в Сирию. Вам правда кажется, что за 150 рублей в месяц вы купите алгоритм, который хотя бы отличит 10 лайков к видео «ИГИЛ это плохо» от 10 лайков к видео «ИГИЛ убивает плохих неверных»? Результат — скандал на пустом месте.

Это упрощённый пример, в котором всё понятно (ИГИЛ — плохо). А кто писал алгоритм по выявлению экстремизма? А что такое экстремизм? А писал один человек? А белый? Потому что даже в дорогих и сложных системах прогнозирования рецидивизма милый и уютный racial bias. Избежать ошибок невозможно: можно только доработать алгоритм после них. Но каждая такая доработка основана на криках, слезах и горе (спасибо хоть, что не на времени в тюрьме, как с racial bias). Никакой аналитик не посчитает, чего будет больше: спасённых от ухода в ИГИЛ или задумавшихся о суициде из-за домашних скандалов.

Этого материала не было бы, если бы создатели«Родительского контроля» перед запуском милого лендинга с сердечками подготовили не менее милый документ на десятки страниц, разъясняющий самые базовые принципы их подхода к анализу данных. Потому что сейчас это в лучшем случае не самый честный PR-кейс, а в худшем — небезопасная для детей и родителей попытка залезть на молодой и сложный рынок.