Задачи хакатона
Идеи проектов, посвященных разработке технологических решений, которые расширяют возможности российских активистов, представителей гражданского общества, медиа-профессионалов и НПО
Приём заявок закрывается 10 декабря
Трек "Свобода Интернета"
Антицензурные решения
Повышение устойчивости работы и улучшения существующих способов восстановления доступа к информации, а также креативные идеи, способствующие широкому распространению этих решений.
Интернет-субботник
Создайте технические решения для выявления ложных нарративов в интернете, которые смогут распознавать публикации, лайки, комментарии, накрутки в опросах от ботов и другие формы искажения информации.
Фактчекинг
Разработайте инструменты для верификации контента и повышения критического мышления. Создайте решения, которые помогут выявлять ложную информацию, включая текстовые материалы и визуальный контент, созданный с помощью технологий Deep Fake. Сделайте интернет более надёжным местом, где правда отделяется от манипуляций.
Трек "Технологии солидарности"
Фандрайзинг
Применение искусственного интеллекта для помощи в анализе данных о потенциальных благотворителях, сегментировании аудитории по категориям или разделении пользователей или доноров на группы. Это поможет предсказывать поведение пользователей и повышать вероятность получения пожертвований.
Проведение кампаний
Решение для проведения кампаний, оптимизации рекламы для различных платформ, персонализации рассылок и других коммуникаций.
Мониторинг психического здоровья
Отслеживая закономерности публикаций в социальных сетях: темы постов, изменения активности, языка и стиля текста — ИИ может предсказать начало депрессивного или тревожного эпизода у пользователя и автоматизировать точку первого контакта с человеком, нуждающимся в психологической помощи.
Чат-боты
Чат-боты для ответов на вопросы пользователей или для поиска по внутренней базе знаний, например, для облегчения приема новых волонтеров. Важно определить тон общения чат-бота, какую цель он выполняет и на кого он нацелен. Возможно создание нескольких чат-ботов для разных задач. Важно, что в выводах бота всегда возможны ошибки, и пользователей следует предупреждать об этом заранее.
Активистская платформа будущего
Создать инновационную систему, которая станет отправной точкой для новичков в активизме, помогая им быстро интегрироваться в сообщество и устанавливать связи. Задача — разработать платформу, которая будет выступать в качестве моста между начинающими активистами и опытными наставниками, способствуя обмену знаниями, ресурсами и поиску экспертов для проектов. Особое внимание следует уделить функциям, помогающим пользователям преодолевать барьеры, вызванные санкциями и эмиграцией.
ИИ для мониторинга поведенческих изменений в чатах
Применение искусственного интеллекта для обнаружения резких изменений в поведении участников чата. Задача — разработать систему, которая анализирует текстовые сообщения в режиме реального времени для выявления аномалий в стиле общения, тоне или частоте взаимодействий. Этот инструмент может стать незаменимым для модераторов, помогая им оперативно реагировать на потенциальные проблемы и поддерживать здоровую атмосферу в онлайн-сообществах.
Интеллектуальный бот службы поддержки
Бот службы поддержки с искусственным интеллектом для автоматических ответов на запросы клиентов на основе комплексной базы данных. Задача — разработать систему, которая сможет не только эффективно взаимодействовать с пользователями, но и выявлять ошибки, преобразовывать их в нужный формат и записывать в базу данных для дальнейшего анализа. Этот инструмент поможет повысить качество обслуживания и оперативно реагировать на возникающие проблемы.
Проверка статуса НКО и СМИ
Разработать автоматизированное техническое решение для проверки статуса НКО и СМИ в соответствии с решениями Минюста России (иностранный агент, нежелательная организация, экстремистская организация, снятие статуса и т.д.). Это может быть плагин, телеграм-бот или любое другое решение, не требующее специальной подготовки пользователя и безопасное в использовании.
Защита активистов и волонтеров
Генеративный ИИ может как создать новую фальшивую личность, так и заменить голос и внешность человека, сохранив интонацию и выражение лица. Это уже распространено в документальных фильмах и подкастах. Следует помнить, что конфиденциальная информация не должна передаваться ИИ, поскольку она может быть сохранена и использована для дальнейшего обучения модели.
Выявление нарушений прав человека
Создать инструмент для отслеживания и анализа потока данных в социальных сетях , который позволит обнаруживать доказательства и свидетелей нарушений прав человека, преступлений, находить скрытые захоронения.
Защита в судах
Решения на основе ИИ, который помогает человеку отстаивать свою позицию в суде без помощи адвоката. В настоящее время такие уже (например, DoNotPay). Здесь же может быть решение, помогающее составить судебную претензию, заполнить заявление в суд и тд.
Подготовка к дебатам
Проект Debator — экспериментальный искусственный интеллект, который обучает ведению дебатов и помогает выбирать аргументы за или против определенных законопроектов.
Трек "Исследования"
«Импортозамещающие» сервисы
Привычные зарубежные сервисы для потребления контента в России и других странах все чаще блокируются, замедляются или запрещаются. Создаются аналоги (например, VK Video, Platform, Rutube, Yandex Zen и т. д.), которые многие СМИ и блогеры будут вынуждены использовать. Необходимо сравнительное исследование для анализа стабильности и удобства использования этих сервисов, а также выявления угроз конфиденциальности данных.
Кибератаки в отношении активистов и СМИ
Создать интерактивную платформу для визуализации и анализа данных о кибератаках против активистов и СМИ в России и других странах. Участники могут использовать существующие данные, а также проводить собственные исследования для выявления тенденций, закономерностей и связей между кибератаками и политическими событиями.
Big Tech и цензура
Изучить, как крупные технологические компании (Big Tech) влияют на цензуру информации и свободу слова в разных странах. Проанализировать механизмы, посредством которых Big Tech могут способствовать цензуре, и определить последствия для общества и демократии.
Made on
Tilda