multilingual-e5-small-optimized

elastic
Similitud de oraciones

Una versión cuantificada de multilingual-e5-small. La cuantificación se realizó por capa bajo las mismas condiciones que nuestro modelo ELSERv2, como se describe aquí. Embeddings de texto mediante preentrenamiento contrastivo débilmente supervisado.

Como usar

Para usar el modelo, puedes implementarlo con el siguiente código:
```python
from sentence_transformers import SentenceTransformer
model = SentenceTransformer('elastic/multilingual-e5-small-optimized')
embeddings = model.encode(['Esta es una oración', 'Esta es otra oración'])

Funcionalidades

Similitud de frases
Transformadores de frases
Compatible con PyTorch
Optimización del rendimiento
Cuantificación por capa

Casos de uso

Medir la similitud entre frases
Indexación semántica en múltiples idiomas
Búsqueda y recuperación de información
Clasificación de textos y agrupación
Análisis semántico de contenido multilingüe

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.