bert-base-uncased-hatexplain-rationale-two
Hate-speech-CNERG
Clasificación de texto
El modelo se utiliza para clasificar un texto como abusivo (discurso de odio y ofensivo) o normal. El modelo se entrenó utilizando datos de Gab y Twitter, y se incluyeron razones humanas como parte de los datos de entrenamiento para mejorar el rendimiento. El modelo también tiene una cabeza predictora de razones que puede predecir las razones dadas una sentencia abusiva.
Como usar
Detalles de uso
Por favor use la clase Model_Rational_Label
dentro de models.py
para cargar los modelos. La predicción predeterminada en esta API de inferencia alojada puede ser incorrecta debido al uso de diferentes inicializaciones de clase.
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# desde models.py
from models import *
tokenizer = AutoTokenizer.from_pretrained("Hate-speech-CNERG/bert-base-uncased-hatexplain-rationale-two")
model = Model_Rational_Label.from_pretrained("Hate-speech-CNERG/bert-base-uncased-hatexplain-rationale-two")
inputs = tokenizer('He is a great guy', return_tensors="pt")
prediction_logits, _ = model(input_ids=inputs['input_ids'],attention_mask=inputs['attention_mask'])
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Modelo explicable de discurso de odio
- Cabeza predictora de razones
Casos de uso
- Clasificación de texto
- Detección de discurso de odio y contenido ofensivo