Code Velocity
Kurumsal Yapay Zeka

Çok Modlu Gömme Modelleri Ölçekte: Medya ve Eğlence için Yapay Zeka Veri Gölü

·5 dk okuma·AWS·Orijinal kaynak
Paylaş
S3'ten Nova ve Bedrock aracılığıyla OpenSearch'e veri akışını gösteren, video araması için bir AWS çok modlu gömme yapay zeka veri gölünün mimarisini gösteren diyagram.

Çok Modlu Gömme Modelleriyle Video Aramasını Devrim Niteliğinde Değiştirmek

Medya ve eğlence sektörü, uçsuz bucaksız video içerik denizleriyle dolup taşıyor. Arşiv görüntülerinden günlük yüklere kadar, muazzam hacim, geleneksel içerik keşif yöntemlerini — manuel etiketleme ve anahtar kelime tabanlı aramaları — giderek daha verimsiz ve çoğu zaman yanlış hale getiriyor. Bu eski yaklaşımlar, videonun içine yerleşmiş tüm zenginliği ve ince bağlamı yakalamakta zorlanarak, içerik yeniden kullanımında, daha hızlı üretimde ve geliştirilmiş izleyici deneyimlerinde kaçırılan fırsatlara yol açıyor.

Çok modlu gömme modelleri dönemi başlıyor. AWS, bu sınırlamaları aşan, devasa video veri kümelerinde semantik arama yetenekleri sağlayan bir çözüme öncülük ediyor. Amazon Nova modellerinin ve Amazon OpenSearch Service'in gücünden yararlanarak, içerik oluşturucuları ve distribütörler, yüzeysel anahtar kelimelerin ötesine geçerek medya kütüphanelerini gerçekten anlayabilir ve bunlara erişebilirler. Bu yenilikçi yaklaşım, doğal dil sorgularının görsel ve işitsel bilginin derinliklerini araştırmasına olanak tanıyarak içerik keşfine eşi benzeri görülmemiş bir hassasiyet getiriyor.

Bu yeteneği etkileyici bir ölçekte sergileyen AWS, AWS Açık Veri Kayıt Defteri'nden 792.270 videoyu işledi ve bu da şaşırtıcı bir şekilde 8.480 saatlik video içeriğini kapsıyor. 30,5 milyon saniyenin üzerindeki videoyu sadece 41 saatte işlemeyi başaran bu iddialı çalışma, bu yapay zeka odaklı yaklaşımın ölçeklenebilirliğini ve verimliliğini vurgulamaktadır. Tek seferlik alım ve yıllık OpenSearch Service dahil olmak üzere ilk yıl maliyeti, oldukça rekabetçi olan 23.632 ABD Doları (OpenSearch Service Ayrılmış Örnekler ile) ila 27.328 ABD Doları (isteğe bağlı ile) arasında tahmin edilmiştir. Böyle bir çözüm, medya şirketlerinin dijital varlıklarıyla etkileşim şeklini temelden dönüştürerek, içerik para kazanma ve üretim iş akışları için yeni yollar açmaktadır. Semantik anlayışa yönelik bu paradigma değişimi, medyada Kurumsal Yapay Zeka için kritik bir gelişmedir.

Ölçeklenebilir Çok Modlu Yapay Zeka Veri Gölü Mimarisi Anlayışı

Özünde, bu güçlü çok modlu video arama sistemi iki birbiriyle bağlantılı iş akışı üzerine kuruludur: video alımı ve arama. Bu bileşenler, video içeriğinin karmaşık detaylarını anlayan ve aranabilir hale getiren bir yapay zeka veri gölü oluşturmak için sorunsuz bir şekilde entegre olur.

Video Alım Hattı

Alım hattı, paralel işleme ve verimlilik için tasarlanmıştır. Saatte 19.400 video işleme hızına ulaşmak için 600 paralel çalışanını koordine eden dört adet Amazon EC2 c7i.48xlarge örneği kullanır. Başlangıçta Amazon S3'e yüklenen videolar daha sonra Amazon Nova Multimodal Embeddings asenkron API'si tarafından işlenir. Bu API, videoları önemli sahne değişikliklerini yakalamak ve oluşturulan gömme modellerinin hacmini yönetmek arasında bir denge sağlayarak, optimum 15 saniyelik parçalara akıllıca böler. Her segment daha sonra, birleşik görsel-işitsel özelliklerini temsil eden 1024 boyutlu bir gömme modeline dönüştürülür. 3072 boyutlu gömme modelleri daha yüksek doğruluk sunarken, 1024 boyutlu seçenek bu uygulama için doğruluk üzerinde minimum etkiyle 3 kat depolama maliyeti tasarrufu sağlayarak ölçek için pratik bir seçim haline gelir.

Aramayı daha da geliştirmek için, önceden tanımlanmış bir taksonomiden video başına 10-15 açıklayıcı etiket oluşturmak üzere Amazon Nova Pro (veya daha yeni, daha uygun maliyetli Nova 2 Lite) kullanılır. Bu ikili yaklaşım, içeriğin hem semantik benzerlik hem de geleneksel anahtar kelime eşleştirmesi yoluyla keşfedilebilir olmasını sağlar. Bu gömme modelleri, vektör benzerliği araması için optimize edilmiş bir OpenSearch k-NN dizininde depolanırken, açıklayıcı etiketler ayrı bir metin dizininde indekslenir. Bu ayrım, esnek ve verimli sorgulamaya olanak tanır. Boru hattı, Bedrock'un eşzamanlılık limitlerini (hesap başına 30 eşzamanlı iş) sağlam bir iş kuyruğu ve yoklama mekanizması aracılığıyla yönetir ve sürekli ve uyumlu işleme sağlar.

Bu gelişmiş alım sürecinin görsel bir temsili aşağıdadır:

Şekil 1: S3 video depolamasından Nova Multimodal Embeddings ve Nova Pro aracılığıyla ikili OpenSearch dizinlerine akışı gösteren video alım hattı

Çeşitli Video Arama Yeteneklerini Güçlendirmek

Arama mimarisi, çok yönlülük için tasarlanmış olup, birden fazla içerik keşfi modu sunar:

  1. Metinden Videoya Arama: Kullanıcılar "gece hareketli bir şehrin drone çekimi" veya "gurme bir yemek hazırlayan şefin yakın çekimi" gibi doğal dil sorguları girebilirler. Sistem bu sorguları gömme modellerine dönüştürür, ardından OpenSearch k-NN dizinini kullanarak açıklamaya semantik olarak uyan video segmentlerini veya tüm videoları bulur, hatta tam kelimeler herhangi bir meta veride mevcut olmasa bile. Bu, sezgisel içerik keşfi ve hikaye tahtası oluşturma için idealdir.

  2. Videodan Videoya Arama: Bir kullanıcının bir video klibi olduğu ve benzer içerik bulmak istediği senaryolarda, bu mod üstündür. Giriş videosunun gömme modellerini OpenSearch k-NN dizinindekilerle doğrudan karşılaştırarak, sistem görsel ve işitsel olarak benzer içeriği tanımlayabilir. Bu, B-roll görüntülerini belirlemek, içerik tutarlılığını sağlamak veya türetilmiş eserleri keşfetmek için paha biçilmezdir.

  3. Hibrit Arama: Her iki dünyanın da en iyilerini birleştiren hibrit arama, vektör benzerliğini geleneksel anahtar kelime eşleştirmesiyle entegre eder. Önerilen çözüm ağırlıklı bir yaklaşım kullanır (örneğin, %70 vektör benzerliği ve %30 anahtar kelime eşleştirmesi). Bu, yüksek doğruluk ve alaka düzeyi sağlar, belirli meta verilerin aramayı yönlendirmesine izin verirken semantik anlama geniş bağlamsal eşleşmeler sağlar. Bu yaklaşım, hem hassas etiketlerden hem de kavramsal anlayıştan faydalanan karmaşık sorgular için özellikle etkilidir.

Şekil 2: Üç arama modunu (metinden videoya, videodan videoya ve k-NN ile BM25'i birleştiren hibrit arama) gösteren video arama mimarisi

Maliyet Etkin Dağıtım ve Önkoşullar

Böylesine sofistike bir yapay zeka veri gölü dağıtmak, AWS'nin verimlilik için optimize ettiği altyapı ve maliyetlerin dikkatli bir şekilde değerlendirilmesini gerektirir. Yaklaşık 8.480 saatlik video içeriği olan kapsamlı veri kümelerini işlemek için toplam maliyet, ilk yıl için tahmini 27.328 ABD Doları (isteğe bağlı OpenSearch ile) veya 23.632 ABD Doları (OpenSearch Service Ayrılmış Örnekler ile) olarak gerçekleşti.

Alım dökümü, temel maliyet faktörlerini vurgular:

  • Amazon EC2 bilgi işlem: 421 ABD Doları (41 saat için 4x c7i.48xlarge spot örnekleri)
  • Amazon Bedrock Nova Multimodal Embeddings: 17.096 ABD Doları (30,5 milyon saniye, 0,00056 ABD Doları/saniye toplu fiyatlandırma ile)
  • Nova Pro etiketleme: 571 ABD Doları (792 bin video, yaklaşık ortalama 600 belirteç/video)
  • Amazon OpenSearch Service: 9.240 ABD Doları (isteğe bağlı yıllık) veya 5.544 ABD Doları (Ayrılmış yıllık)

Uygulama İçin Önkoşullar: Bu çözümü çoğaltmak veya uyarlamak için şunlara ihtiyacınız olacak:

  1. us-east-1 bölgesinde Amazon Bedrock erişimi olan bir AWS hesabı.
  2. Python 3.9 veya sonrası.
  3. Uygun kimlik bilgileriyle yapılandırılmış AWS Komut Satırı Arabirimi (AWS CLI).
  4. k-NN eklentisi etkinleştirilmiş, 2.11 veya üzeri sürüme sahip bir Amazon OpenSearch Service alanı (r6g.large veya daha büyüğü önerilir).
  5. Video depolama ve gömme çıktıları için bir Amazon S3 depolama alanı (bucket).
  6. Amazon Bedrock, OpenSearch Service ve Amazon S3 için AWS Kimlik ve Erişim Yönetimi (IAM) izinleri.

Çözüm, belirli AWS hizmetlerini ve modellerini kullanır:

  • Gömme modelleri için amazon.nova-2-multimodal-embeddings-v1:0 ile Amazon Bedrock.
  • Etiketleme için us.amazon.nova-pro-v1:0 veya us.amazon.nova-2-lite-v1:0 ile Amazon Bedrock.
  • k-NN eklentisiyle Amazon OpenSearch Service 2.11+.
  • Depolama için Amazon S3.

Çok Modlu Video Arama Çözümünü Uygulamak

Bu mimariye başlamak, AWS ortamınızı kurmak için yapılandırılmış bir yaklaşım gerektirir. İlk önemli adım, gerekli izinleri oluşturmaktır.

Adım 1: IAM Rolleri ve Politikaları Oluşturma

Uygulamanıza veya hizmetinize çeşitli AWS bileşenleriyle etkileşim kurma yetkisi veren bir IAM rolü oluşturmanız gerekecektir. Bu rol, Amazon Bedrock modellerini (hem gömme oluşturma hem de etiketleme için) çağırma, OpenSearch dizinlerine veri yazma ve video içeriğinizin ve işlenmiş çıktılarınızın bulunduğu Amazon S3 depolama alanlarında okuma/yazma işlemleri gerçekleştirme izinlerini içermelidir.

İşte temel bir IAM politika yapısı örneği:

{
  "Version": "2012-10-17",
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "bedrock:InvokeModel",
        "bedrock:StartAsyncInvoke",
        "bedrock:GetAsyncInvoke",
        "bedrock:List"
      ],
      "Resource": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-*"
    },
    {
      "Effect": "Allow",
      "Action": [
        "s3:GetObject",
        "s3:PutObject",
        "s3:ListBucket"
      ],
      "Resource": [
        "arn:aws:s3:::your-video-bucket/*",
        "arn:aws:s3:::your-video-bucket"
      ]
    },
    {
      "Effect": "Allow",
      "Action": [
        "es:ESHttpPost",
        "es:ESHttpPut",
        "es:ESHttpDelete",
        "es:ESHttpGet"
      ],
      "Resource": "arn:aws:es:us-east-1:*:domain/your-opensearch-domain/*"
    }
  ]
}

Bu politika, boru hattının çalışması için gerekli belirli izinleri verir. your-video-bucket ve your-opensearch-domain gibi yer tutucuları gerçek kaynak adlarınızla değiştirmeyi unutmayın. IAM kurulumunu takiben, S3 depolama alanlarınızı yapılandırmaya, OpenSearch Service alanınızı k-NN etkinleştirilmiş olarak kurmaya ve alım için Bedrock API'lerinden yararlanan düzenleme mantığını geliştirmeye devam edeceksiniz. Bu sağlam çerçeve, medya ve eğlence şirketlerinin sürekli büyüyen içerik kütüphanelerini verimli bir şekilde yönetebilmelerini, keşfedebilmelerini ve para kazanabilmelerini sağlayarak içerik zekasında önemli bir sıçrama kaydeder. Bu kapsamlı çözüm, özellikle çok modlu anlayıştaki modern yapay zeka yeteneklerinin, içerik yönetimi ve erişilebilirlik için endüstri standartlarını nasıl yeniden tanımladığının bir örneğidir. Gelişmiş yapay zeka modellerini ölçeklenebilir bulut altyapısıyla entegre etmenin, gerçek dünya Kurumsal Yapay Zeka zorluklarını çözmedeki gücünün bir kanıtıdır ve Agentic Yapay Zeka iş akışlarında görülenlere benzer gelişmeleri teşvik etmektedir.

Sık Sorulan Sorular

What is a multimodal AI data lake for media and entertainment workloads?
A multimodal AI data lake for media and entertainment is an advanced system designed to store, process, and enable intelligent search across vast collections of video content. Unlike traditional keyword-based systems, it leverages AI models, specifically multimodal embeddings, to understand the nuanced meaning and context within audio and visual data. This allows for semantic search capabilities, where users can query content using natural language descriptions or by providing another video, moving beyond simple tags to find relevant moments or entire videos based on their actual content. AWS's solution utilizes services like Amazon Nova for embedding generation and Amazon OpenSearch Service for efficient storage and retrieval of these high-dimensional vectors, making it ideal for large-scale content libraries.
How does the video ingestion pipeline handle large-scale datasets?
The video ingestion pipeline detailed in the article is engineered for massive scale, demonstrating processing of nearly 800,000 videos totaling over 8,480 hours of content. It employs a distributed architecture using multiple Amazon EC2 instances (e.g., c7i.48xlarge) to parallelize video processing. Key to its efficiency is the asynchronous API of Amazon Nova Multimodal Embeddings, which segments videos into optimal chunks (e.g., 15-second segments) and generates 1024-dimensional embeddings. To manage Bedrock's concurrency limits, the pipeline implements a job queue with polling, ensuring continuous processing. Additionally, Amazon Nova Pro (or Nova Lite) is used to generate descriptive tags, further enriching the metadata. These embeddings and tags are then efficiently indexed into Amazon OpenSearch Service's k-NN and text indices respectively, preparing the data for rapid search.
What types of video search capabilities does this solution enable?
This multimodal AI data lake solution provides three powerful video search capabilities, significantly enhancing content discovery. First, **Text-to-video Search** allows users to input natural language queries (e.g., 'a person surfing at sunset') which are then converted into embeddings and matched semantically against video content, going beyond exact keyword matches. Second, **Video-to-video Search** enables users to find similar video segments or entire videos by comparing their embeddings directly, useful for content recommendations or identifying duplicates. Third, **Hybrid Search** combines the strengths of both semantic vector similarity and traditional keyword matching (e.g., 70% vector, 30% keyword) for maximum accuracy and relevance, especially when dealing with complex queries that benefit from both contextual understanding and specific metadata.
Which AWS services are critical for building this multimodal embedding solution?
Several core AWS services are critical for constructing this scalable multimodal embedding solution. At its heart are **Amazon Bedrock** and its **Nova Multimodal Embeddings** for generating high-dimensional vector representations from video and audio, and **Nova Pro** (or **Nova Lite**) for intelligent tagging. **Amazon OpenSearch Service** (specifically with its k-NN plugin) serves as the scalable vector database to store and query these embeddings, alongside a traditional text index for metadata. **Amazon S3** (Simple Storage Service) is essential for storing the raw video files and the outputs of the embedding process. **Amazon EC2** provides the compute power for orchestrating the ingestion pipeline and managing the large-scale processing of video data. Additionally, **AWS IAM** is vital for securing access and permissions across these integrated services.
What are the cost considerations for deploying such a large-scale multimodal video search system?
Deploying a large-scale multimodal video search system, as demonstrated by the processing of over 8,000 hours of video, involves significant but manageable costs. The article provides a detailed breakdown, estimating a first-year total cost of approximately $23,632 to $27,328. This cost is primarily divided into two components: one-time ingestion costs and ongoing annual Amazon OpenSearch Service costs. Ingestion is dominated by Amazon Bedrock Nova Multimodal Embeddings usage, charged per second of processed video, and Nova Pro tagging. Amazon EC2 compute for orchestration also contributes but is comparatively smaller. OpenSearch Service costs can be optimized by using Reserved Instances over on-demand pricing. Careful planning and monitoring of resource usage, especially Bedrock API calls and OpenSearch cluster sizing, are key to managing and optimizing these expenditures.
Why is semantic search using multimodal embeddings superior to traditional keyword search for video content?
Semantic search, powered by multimodal embeddings, offers a profound advantage over traditional keyword search for video content by enabling a deeper, contextual understanding. Keyword search is limited to exact matches of words and phrases, often failing to capture synonyms, related concepts, or the visual and auditory nuances of video. For instance, searching for 'people talking' might miss a scene where individuals are silently communicating through gestures. Multimodal embeddings, however, convert the rich information from both audio and video into dense numerical vectors. These vectors capture the meaning, style, and context, allowing for queries based on conceptual similarity rather than just lexical matches. This means users can find relevant content even if the exact keywords aren't present, or describe a visual scene using natural language, significantly improving content discovery and relevance in large video archives.
How does the Amazon Nova family of models contribute to this solution?
The Amazon Nova family of models plays a central role in enabling this advanced multimodal video search solution. Specifically, **Amazon Nova Multimodal Embeddings** is the backbone for transforming raw video and audio into actionable high-dimensional vectors (embeddings). It intelligently segments videos and extracts combined audio-visual features, allowing for sophisticated semantic comparisons. This model is crucial for both text-to-video and video-to-video search functionalities. Additionally, **Amazon Nova Pro** (or the more cost-effective **Nova Lite**) is utilized for generating descriptive tags. These tags enrich the video metadata, enabling hybrid search scenarios where both conceptual similarity and specific keywords can be used to refine search results. Together, these Nova models empower the system to understand, categorize, and make searchable the complex information contained within video content.
What are the benefits of using OpenSearch Service's k-NN index in this architecture?
Amazon OpenSearch Service's k-NN (k-Nearest Neighbor) index is a cornerstone of this multimodal video search architecture, providing the capability to efficiently store and query high-dimensional vector embeddings. The primary benefit is enabling rapid and accurate semantic search. When a query (text or video) is converted into an embedding, the k-NN index can quickly find the 'k' most similar video embeddings within the vast dataset. This is far more efficient than traditional database lookups for vector similarity. It allows for real-time semantic search across millions of video segments. By integrating seamlessly with other OpenSearch capabilities, it also facilitates hybrid search, combining vector similarity with traditional text-based filtering and scoring, ensuring a powerful and flexible search experience that scales with the size of the media library.

Güncel Kalın

En son yapay zeka haberlerini e-postanıza alın.

Paylaş