Анализатор токсичности комментариев
Модель на базе `ruBERT-tiny2` для определения токсичности в русскоязычном тексте.
0 1
—
О модели
- База:
cointegrated/rubert-tiny2(облегчённый BERT), дообучен на задаче классификации токсичности. - Предобработка: Минимальная (модель принимает сырой текст).
- Макс. длина: 256 токенов.
- Рекомендованный порог:
~0.65. Повышение порога (до 0.70+) делает модель более строгой, снижая количество ложных срабатываний.