Анализатор токсичности комментариев

Модель на базе `ruBERT-tiny2` для определения токсичности в русскоязычном тексте.

0 1

О модели

  • База: cointegrated/rubert-tiny2 (облегчённый BERT), дообучен на задаче классификации токсичности.
  • Предобработка: Минимальная (модель принимает сырой текст).
  • Макс. длина: 256 токенов.
  • Рекомендованный порог: ~0.65. Повышение порога (до 0.70+) делает модель более строгой, снижая количество ложных срабатываний.