Qdrant/clip-ViT-B-32-vision

Qdrant
Clasificación de imagen

Puerto ONNX de sentence-transformers/clip-ViT-B-32. Este modelo está destinado a ser utilizado para clasificación de imágenes y búsquedas de similitud.

Como usar

Aquí hay un ejemplo de realización de inferencia usando el modelo con FastEmbed.

from fastembed import ImageEmbedding

images = [
"./path/to/image1.jpg",
"./path/to/image2.jpg",
]

model = ImageEmbedding(model_name="Qdrant/clip-ViT-B-32-vision")
embeddings = list(model.embed(images))

# [
#   array([-0.1115,  0.0097,  0.0052,  0.0195, ...], dtype=float32),
#   array([-0.1019,  0.0635, -0.0332,  0.0522, ...], dtype=float32)
# ]

Funcionalidades

Clasificación de imágenes
Búsqueda de similitud
Compatibilidad con Transformers
Modelo ONNX

Casos de uso

Clasificación de imágenes
Búsqueda de similitud

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.