2022-04-25 09:36:05
OpenAI выложили новые веса для модели CLIP
ViT-L/14@336px.
До этого самыми большими весами были
ViT-L/14 в разрешении 224px.
Использовать новые веса
ViT-L/14@336px очень легко, в одну строчку
Before
model, preprocess = clip.load('ViT-L/14', device)
After
model, preprocess = clip.load('ViT-L/14@336px', device)
ViT CLIP стал популярным решением для генерации и изменения изображения (с использованием Diffusion models), поиска по фото, ранжирования, метрик схожести, zero shot классификации и zero shot object detection.
Кому интересно, я обновил свой форк CLIP-ODS. Форк умеет в object detection и image segmentation. Просто в текстовом виде пишете, что хотите обнаружить, а сетка делает свое дело.
2.0K viewsedited 06:36