Qdrant/clip-ViT-B-32-vision
Qdrant
Clasificación de imagen
Puerto ONNX de sentence-transformers/clip-ViT-B-32. Este modelo está destinado a ser utilizado para clasificación de imágenes y búsquedas de similitud.
Como usar
Aquí hay un ejemplo de realización de inferencia usando el modelo con FastEmbed.
from fastembed import ImageEmbedding
images = [
"./path/to/image1.jpg",
"./path/to/image2.jpg",
]
model = ImageEmbedding(model_name="Qdrant/clip-ViT-B-32-vision")
embeddings = list(model.embed(images))
# [
# array([-0.1115, 0.0097, 0.0052, 0.0195, ...], dtype=float32),
# array([-0.1019, 0.0635, -0.0332, 0.0522, ...], dtype=float32)
# ]
Funcionalidades
- Clasificación de imágenes
- Búsqueda de similitud
- Compatibilidad con Transformers
- Modelo ONNX
Casos de uso
- Clasificación de imágenes
- Búsqueda de similitud