madlag/bert-large-uncased-whole-word-masking-finetuned-squadv2
madlag
Pregunta y respuesta
Modelo BERT entrenado con enmascaramiento de palabras completo y afinado para SQuAD v2. Este modelo ofrece una capacidad avanzada de respuesta a preguntas. Ha sido entrenado usando el script run.sh y el código de transformers/example/question_answering. Proporciona resultados de evaluación notablemente superiores en comparación con el trabajo original del artículo BERT, gracias a la variación de 'whole-word-masking'.
Como usar
Para usar este modelo en la inferencia de preguntas, se puede implementar utilizando las bibliotecas Transformers de Hugging Face y configurándose en un entorno adecuado.
Funcionalidades
- Capacidad de respuesta a preguntas
- Uso de transformadores
- Implementación en PyTorch
- Compatibilidad con JAX
- Mejora del F1 a 85.85 en comparación con 81.9 del artículo original de BERT
Casos de uso
- Desplegar respuestas automáticas a preguntas en sistemas de atención al cliente
- Mejorar motores de búsqueda con capacidades de comprensión de preguntas
- Desarrollar asistentes virtuales más inteligentes