Image Moderation Model — это инновационное решение, позволяющее отслеживать и фильтровать потенциально нежелательные или опасные изображения. С её помощью вы сможете надежно защитить пользователей от агрессивного, неприемлемого и вредоносного контента, повышая доверие к вашему продукту и формируя безопасную среду для всех.
Модель анализирует изображения по ряду ключевых категорий и определяет наличие следующего контента:
Наша модель с высокой точностью определяет перечисленные категории в графическом контенте и возвращает результат в удобном формате. Подобный функционал идеально подходит для социальных сетей, платформ для обмена изображениями, новостных ресурсов, а также корпоративных решений по модерации пользовательского контента.
Отправьте изображение через
isValid указывает, можно ли считать контент допустимым, а errors содержит массив категорий, по которым контент может не соответствовать политике модерации.
Внедрив Image Moderation Model в свой продукт, вы сможете оперативно отслеживать нежелательные изображения, своевременно принимать меры и обеспечивать высокий уровень доверия со стороны вашей аудитории.
Пример использования (curl)
multipart/form-data в параметре file. Ниже приведён пример использования через curl:
curl -X POST "https://ai-platform.shertaev-tech.kz/api/v1/image-moderation" \
-H "Content-Type: multipart/form-data" \
-F "file=@/path/to/image.jpg"
Пример ответа
{
"isValid": true,
"errors": []
}
Есть вопросы или хотите обсудить сотрудничество? Заполните форму и мы свяжемся с вами в ближайшее время.