bert-base-uncased-hatexplain-rationale-two

Hate-speech-CNERG
Clasificación de texto

El modelo se utiliza para clasificar un texto como abusivo (discurso de odio y ofensivo) o normal. El modelo se entrenó utilizando datos de Gab y Twitter, y se incluyeron razones humanas como parte de los datos de entrenamiento para mejorar el rendimiento. El modelo también tiene una cabeza predictora de razones que puede predecir las razones dadas una sentencia abusiva.

Como usar

Detalles de uso

Por favor use la clase Model_Rational_Label dentro de models.py para cargar los modelos. La predicción predeterminada en esta API de inferencia alojada puede ser incorrecta debido al uso de diferentes inicializaciones de clase.

from transformers import AutoTokenizer, AutoModelForSequenceClassification
# desde models.py
from models import *
tokenizer = AutoTokenizer.from_pretrained("Hate-speech-CNERG/bert-base-uncased-hatexplain-rationale-two")
model = Model_Rational_Label.from_pretrained("Hate-speech-CNERG/bert-base-uncased-hatexplain-rationale-two")
inputs = tokenizer('He is a great guy', return_tensors="pt")
prediction_logits, _ = model(input_ids=inputs['input_ids'],attention_mask=inputs['attention_mask'])

Funcionalidades

Clasificación de texto
Transformers
PyTorch
Modelo explicable de discurso de odio
Cabeza predictora de razones

Casos de uso

Clasificación de texto
Detección de discurso de odio y contenido ofensivo

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.