Code Velocity
Fyrirtækjagervigreind

Fjölstillt innfelling í stórum stíl: AI gagnasjávar fyrir miðla og afþreyingu

·5 mín lestur·AWS·Upprunaleg heimild
Deila
Skýringarmynd sem sýnir arkitektúr AWS fjölstillts innfellingar AI gagnasjávar fyrir myndbandaleit, sem sýnir gagnaflæði frá S3 til OpenSearch í gegnum Nova og Bedrock.

Að umbylta myndbandaleit með fjölstilltum innfellingum

Miðla- og afþreyingariðnaðurinn flýtur í miklu magni myndbandsefnis. Frá skjalasafni til daglegra upphleðslna, gerir hið mikla magn hefðbundnar aðferðir við efnisleit – handvirka merkingu og leitarorðatengdar leitir – sífellt óskilvirkari og oft ónákvæmari. Þessar eldri aðferðir eiga í erfiðleikum með að fanga alla ríkdóminn og nákvæmt samhengi sem er innbyggt í myndbönd, sem leiðir til glataðra tækifæra til endurnýtingar efnis, hraðari framleiðslu og betri upplifunar fyrir áhorfendur.

Stígum inn í tíma fjölstilltra innfellinga. AWS er að ryðja brautina með lausn sem fer yfir þessar takmarkanir og gerir kleift að framkvæma merkingarfræðilega leit yfir gríðarstór gagnasöfn af myndböndum. Með því að nýta kraft Amazon Nova líkana og Amazon OpenSearch Service, geta efnisgerðarmenn og dreifingaraðilar farið út fyrir yfirborðskennd leitarorð til að skilja og fá aðgang að miðlasafni sínu. Þessi nýstárlega nálgun gerir náttúrulegum tungumálaleitum kleift að kafa djúpt í sjónrænar og hljóðrænar upplýsingar, sem færir óviðjafnanlega nákvæmni í efnisleit.

Til að sýna þessa getu í stórum stíl hefur AWS unnið úr 792.270 myndböndum úr AWS Open Data Registry, sem spannar ótrúlega 8.480 klukkustundir af myndbandsefni. Þetta metnaðarfulla verkefni, sem tók aðeins 41 klukkustund að vinna úr yfir 30,5 milljónum sekúndna af myndbandi, undirstrikar stigstærð og skilvirkni þessarar gervigreindardrifnu nálgunar. Áætlaður kostnaður fyrsta árs, þar á meðal eingöngu inntaka og árlegur OpenSearch Service, var mjög samkeppnishæfur, $23.632 (með OpenSearch Service Reserved Instances) til $27.328 (með on-demand). Slík lausn umbreytir í grundvallaratriðum því hvernig fjölmiðlafyrirtæki hafa samskipti við stafrænar eignir sínar, opnar nýjar leiðir fyrir tekjuöflun efnis og framleiðsluferla. Þessi nýja nálgun í átt að merkingarfræðilegum skilningi er mikilvæg þróun fyrir Fyrirtækjagervigreind í miðlum.

Að skilja stigstæða fjölstillta AI gagnasjávararkitektúrinn

Í kjarna sínum er þetta öfluga fjölstillta myndbandaleitarkerfi byggt á tveimur samtvinnuðum vinnuflæðum: myndbandainntöku og leit. Þessir hlutar samþættast óaðfinnanlega til að skapa AI gagnasjávar sem skilur og gerir leit að flóknum smáatriðum myndbandsefnisins mögulega.

Myndbandainntökuferli

Inntökuferlið er hannað fyrir samhliða vinnslu og skilvirkni. Það notar fjögur Amazon EC2 c7i.48xlarge tilvik, sem stýra allt að 600 samhliða vinnslueiningum til að ná vinnsluhraða upp á 19.400 myndbönd á klukkustund. Myndbönd sem upphaflega eru hlaðið upp á Amazon S3 eru síðan unnin af Amazon Nova Multimodal Embeddings ósamstillta API. Þetta API skiptir myndböndum á snjallan hátt í bestu 15 sekúndna bita – jafnvægi á milli þess að fanga mikilvægar atriðisbreytingar og stjórna magni framleiddra innfellinga. Hver hluti er síðan umbreytt í 1024 víddar innfellingu, sem táknar samsett hljóð- og myndræna eiginleika hans. Þó að 3072 víddar innfellingar bjóði upp á meiri nákvæmni, veitir 1024 víddar valkosturinn 3x sparnað í geymslukostnaði með lágmarksáhrifum á nákvæmni fyrir þetta forrit, sem gerir það að praktísku vali fyrir stærð.

Til að auka enn frekar leitargetu er Amazon Nova Pro (eða nýrri, hagkvæmari Nova 2 Lite) notað til að búa til 10-15 lýsandi merkimiða á hvert myndband úr fyrirfram skilgreindri flokkunarkerfi. Þessi tvöfalda nálgun tryggir að efni sé finnanlegt bæði með merkingarfræðilegum líkindum og hefðbundinni leitarorðsamsvörun. Þessar innfellingar eru geymdar í OpenSearch k-NN vísitölu, sem er fínstillt fyrir vektarleit, á meðan lýsandi merkimiðar eru skráðir í sérstaka textavísitölu. Þessi aðskilnaður gerir kleift að framkvæma sveigjanlegar og skilvirkar fyrirspurnir. Ferlið stýrir samtíma takmörkunum Bedrock (30 samtíma verkefni á reikning) með öflugri starfbiðröð og könnunaraðferð, sem tryggir stöðuga og samhæfða vinnslu.

Hér fyrir neðan er sjónræn framsetning á þessu háþróaða inntökuferli:

Mynd 1: Myndbandainntökuferli sem sýnir flæði frá S3 myndbandageymslu í gegnum Nova Multimodal Embeddings og Nova Pro til tvöfaldra OpenSearch vísitalna

Að styrkja fjölbreytta myndbandaleitarhæfileika

Leitararkitektúrinn er hannaður fyrir fjölhæfni og býður upp á margar leiðir til að finna efni:

  1. Texta í myndbandaleit: Notendur geta slegið inn náttúrulegar tungumálaleitir, svo sem 'drónamynd af iðandi borg um nótt' eða 'nálmynd af matreiðslumanni að útbúa fínan rétt.' Kerfið breytir þessum fyrirspurnum í innfellingar og nýtir síðan OpenSearch k-NN vísitölu til að finna myndbandshluta eða heil myndbönd sem passa merkingarfræðilega við lýsinguna, jafnvel þó að nákvæm orð séu ekki til staðar í neinum lýsigögnum. Þetta er tilvalið fyrir leiðandi efnisleit og söguþráðargerð.

  2. Myndband í myndbandaleit: Fyrir aðstæður þar sem notandi hefur myndbrot og vill finna svipað efni, skarar þessi hamur fram úr. Með því að bera saman innfellingar inntaksmyndbandsins beint við þær í OpenSearch k-NN vísitölunni, getur kerfið borið kennsl á sjónrænt og hljóðrænt líkt efni. Þetta er ómetanlegt til að bera kennsl á aukaupptökur, tryggja samræmi efnis eða uppgötva afleidd verk.

  3. Blönduð leit: Blönduð leit sameinar það besta úr báðum heimum og samþættir vektorlíkindi við hefðbundna leitarorðsamsvörun. Ráðlögð lausn notar vegnaðferð (t.d. 70% vektorlíkindi og 30% leitarorðsamsvörun). Þetta tryggir mikla nákvæmni og mikilvægi, sem gerir sérstökum lýsigögnum kleift að leiðbeina leit á meðan merkingarfræðilegur skilningur veitir víðtækar samhengissamsvörun. Þessi nálgun er sérstaklega árangursrík fyrir flóknar fyrirspurnir sem njóta góðs af bæði nákvæmum merkimiðum og huglægum skilningi.

Mynd 2: Myndbandaleitararkitektúr sem sýnir þrjá leitarhama – texta í myndband, myndband í myndband og blandaða leit sem sameinar k-NN og BM25

Hagkvæm uppsetning og forkröfur

Útfærsla slíks háþróaðs AI gagnasjávar krefst vandlegrar íhugunar á innviðum og kostnaði, sem AWS hefur fínstillt fyrir skilvirkni. Heildarkostnaður við vinnslu umfangsmikilla gagnasafna, um 8.480 klukkustunda myndbandsefnis, nam áætlaðri heildarkostnaði fyrsta árs upp á $27.328 (með OpenSearch on-demand) eða $23.632 (með OpenSearch Service Reserved Instances).

Inntökusundurliðun sýnir helstu kostnaðarþætti:

  • Amazon EC2 útreikningsgeta: $421 (4x c7i.48xlarge spot tilvik í 41 klukkustund)
  • Amazon Bedrock Nova Multimodal Embeddings: $17.096 (30,5M sekúndur á $0.00056/sekúndu hópverðlagningu)
  • Nova Pro merking: $571 (792K myndbönd, að meðaltali 600 tokens/myndband)
  • Amazon OpenSearch Service: $9.240 (on-demand árlegur) eða $5.544 (Reserved árlegur)

Forþarfir fyrir framkvæmd: Til að endurtaka eða aðlaga þessa lausn þarftu:

  1. AWS reikning með aðgang að Amazon Bedrock í us-east-1.
  2. Python 3.9 eða nýrri.
  3. AWS Command Line Interface (AWS CLI) stillt með viðeigandi skilríkjum.
  4. Amazon OpenSearch Service lén (r6g.large eða stærra mælt með), útgáfa 2.11 eða nýrri, með k-NN viðbótina virka.
  5. Amazon S3 geymsla fyrir myndbandageymslu og úttak innfellinga.
  6. AWS Identity and Access Management (IAM) heimildir fyrir Amazon Bedrock, OpenSearch Service og Amazon S3.

Lausnin nýtir sérstakar AWS þjónustur og líkön:

  • Amazon Bedrock með amazon.nova-2-multimodal-embeddings-v1:0 fyrir innfellingar.
  • Amazon Bedrock með us.amazon.nova-pro-v1:0 eða us.amazon.nova-2-lite-v1:0 fyrir merkingu.
  • Amazon OpenSearch Service 2.11+ með k-NN viðbót.
  • Amazon S3 fyrir geymslu.

Innleiðing fjölstilltu myndbandaleitarlausnarinnar

Að byrja með þennan arkitektúr felur í sér skipulega nálgun við uppsetningu AWS umhverfisins. Fyrsta mikilvæga skrefið er að koma á nauðsynlegum heimildum.

Skref 1: Búa til IAM hlutverk og stefnur

Þú þarft að búa til IAM hlutverk sem veitir forritinu þínu eða þjónustu heimild til að eiga samskipti við ýmsa AWS hluta. Þetta hlutverk verður að innihalda heimildir til að kalla á Amazon Bedrock líkön (bæði fyrir innfellingargerð og merkingu), skrifa gögn í OpenSearch vísitölur og framkvæma les-/skrifaðgerðir á Amazon S3 geymslum þar sem myndbandsefnið þitt og unnar niðurstöður eru staðsettar.

Hér er dæmi um grunn IAM stefnu uppbyggingu:

{
  "Version": "2012-10-17",
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "bedrock:InvokeModel",
        "bedrock:StartAsyncInvoke",
        "bedrock:GetAsyncInvoke",
        "bedrock:List"
      ],
      "Resource": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-*"
    },
    {
      "Effect": "Allow",
      "Action": [
        "s3:GetObject",
        "s3:PutObject",
        "s3:ListBucket"
      ],
      "Resource": [
        "arn:aws:s3:::your-video-bucket/*",
        "arn:aws:s3:::your-video-bucket"
      ]
    },
    {
      "Effect": "Allow",
      "Action": [
        "es:ESHttpPost",
        "es:ESHttpPut",
        "es:ESHttpDelete",
        "es:ESHttpGet"
      ],
      "Resource": "arn:aws:es:us-east-1:*:domain/your-opensearch-domain/*"
    }
  ]
}

Þessi stefna veitir sérstakar heimildir sem eru nauðsynlegar fyrir rekstur ferlisins. Mundu að skipta út staðgengla eins og your-video-bucket og your-opensearch-domain með raunverulegum auðlindanöfnum þínum. Eftir IAM uppsetningu myndirðu halda áfram með stillingu S3 geymslanna þinna, setja upp OpenSearch Service lénið þitt með k-NN virkt og þróa stjórnunarrökfræði sem nýtir Bedrock API til inntöku. Þessi öfluga umgjörð tryggir að fjölmiðla- og afþreyingarfyrirtæki geti á skilvirkan hátt stjórnað, fundið og grætt á sívaxandi efnisbókasöfnum sínum, sem markar stórt stökk í efnisgreind. Þessi alhliða lausn er dæmi um hvernig nútíma gervigreindargeta, sérstaklega í fjölstilltum skilningi, er að endurskilgreina iðnaðarstaðla fyrir efnisstjórnun og aðgengi. Það er vitnisburður um kraft þess að samþætta háþróuð gervigreindarlíkön við stigstæða skýja innviði til að leysa raunveruleg Fyrirtækjagervigreind vandamál, sem stuðlar að framförum svipuðum þeim sem sjást í Agentic AI workflows.

Algengar spurningar

What is a multimodal AI data lake for media and entertainment workloads?
A multimodal AI data lake for media and entertainment is an advanced system designed to store, process, and enable intelligent search across vast collections of video content. Unlike traditional keyword-based systems, it leverages AI models, specifically multimodal embeddings, to understand the nuanced meaning and context within audio and visual data. This allows for semantic search capabilities, where users can query content using natural language descriptions or by providing another video, moving beyond simple tags to find relevant moments or entire videos based on their actual content. AWS's solution utilizes services like Amazon Nova for embedding generation and Amazon OpenSearch Service for efficient storage and retrieval of these high-dimensional vectors, making it ideal for large-scale content libraries.
How does the video ingestion pipeline handle large-scale datasets?
The video ingestion pipeline detailed in the article is engineered for massive scale, demonstrating processing of nearly 800,000 videos totaling over 8,480 hours of content. It employs a distributed architecture using multiple Amazon EC2 instances (e.g., c7i.48xlarge) to parallelize video processing. Key to its efficiency is the asynchronous API of Amazon Nova Multimodal Embeddings, which segments videos into optimal chunks (e.g., 15-second segments) and generates 1024-dimensional embeddings. To manage Bedrock's concurrency limits, the pipeline implements a job queue with polling, ensuring continuous processing. Additionally, Amazon Nova Pro (or Nova Lite) is used to generate descriptive tags, further enriching the metadata. These embeddings and tags are then efficiently indexed into Amazon OpenSearch Service's k-NN and text indices respectively, preparing the data for rapid search.
What types of video search capabilities does this solution enable?
This multimodal AI data lake solution provides three powerful video search capabilities, significantly enhancing content discovery. First, **Text-to-video Search** allows users to input natural language queries (e.g., 'a person surfing at sunset') which are then converted into embeddings and matched semantically against video content, going beyond exact keyword matches. Second, **Video-to-video Search** enables users to find similar video segments or entire videos by comparing their embeddings directly, useful for content recommendations or identifying duplicates. Third, **Hybrid Search** combines the strengths of both semantic vector similarity and traditional keyword matching (e.g., 70% vector, 30% keyword) for maximum accuracy and relevance, especially when dealing with complex queries that benefit from both contextual understanding and specific metadata.
Which AWS services are critical for building this multimodal embedding solution?
Several core AWS services are critical for constructing this scalable multimodal embedding solution. At its heart are **Amazon Bedrock** and its **Nova Multimodal Embeddings** for generating high-dimensional vector representations from video and audio, and **Nova Pro** (or **Nova Lite**) for intelligent tagging. **Amazon OpenSearch Service** (specifically with its k-NN plugin) serves as the scalable vector database to store and query these embeddings, alongside a traditional text index for metadata. **Amazon S3** (Simple Storage Service) is essential for storing the raw video files and the outputs of the embedding process. **Amazon EC2** provides the compute power for orchestrating the ingestion pipeline and managing the large-scale processing of video data. Additionally, **AWS IAM** is vital for securing access and permissions across these integrated services.
What are the cost considerations for deploying such a large-scale multimodal video search system?
Deploying a large-scale multimodal video search system, as demonstrated by the processing of over 8,000 hours of video, involves significant but manageable costs. The article provides a detailed breakdown, estimating a first-year total cost of approximately $23,632 to $27,328. This cost is primarily divided into two components: one-time ingestion costs and ongoing annual Amazon OpenSearch Service costs. Ingestion is dominated by Amazon Bedrock Nova Multimodal Embeddings usage, charged per second of processed video, and Nova Pro tagging. Amazon EC2 compute for orchestration also contributes but is comparatively smaller. OpenSearch Service costs can be optimized by using Reserved Instances over on-demand pricing. Careful planning and monitoring of resource usage, especially Bedrock API calls and OpenSearch cluster sizing, are key to managing and optimizing these expenditures.
Why is semantic search using multimodal embeddings superior to traditional keyword search for video content?
Semantic search, powered by multimodal embeddings, offers a profound advantage over traditional keyword search for video content by enabling a deeper, contextual understanding. Keyword search is limited to exact matches of words and phrases, often failing to capture synonyms, related concepts, or the visual and auditory nuances of video. For instance, searching for 'people talking' might miss a scene where individuals are silently communicating through gestures. Multimodal embeddings, however, convert the rich information from both audio and video into dense numerical vectors. These vectors capture the meaning, style, and context, allowing for queries based on conceptual similarity rather than just lexical matches. This means users can find relevant content even if the exact keywords aren't present, or describe a visual scene using natural language, significantly improving content discovery and relevance in large video archives.
How does the Amazon Nova family of models contribute to this solution?
The Amazon Nova family of models plays a central role in enabling this advanced multimodal video search solution. Specifically, **Amazon Nova Multimodal Embeddings** is the backbone for transforming raw video and audio into actionable high-dimensional vectors (embeddings). It intelligently segments videos and extracts combined audio-visual features, allowing for sophisticated semantic comparisons. This model is crucial for both text-to-video and video-to-video search functionalities. Additionally, **Amazon Nova Pro** (or the more cost-effective **Nova Lite**) is utilized for generating descriptive tags. These tags enrich the video metadata, enabling hybrid search scenarios where both conceptual similarity and specific keywords can be used to refine search results. Together, these Nova models empower the system to understand, categorize, and make searchable the complex information contained within video content.
What are the benefits of using OpenSearch Service's k-NN index in this architecture?
Amazon OpenSearch Service's k-NN (k-Nearest Neighbor) index is a cornerstone of this multimodal video search architecture, providing the capability to efficiently store and query high-dimensional vector embeddings. The primary benefit is enabling rapid and accurate semantic search. When a query (text or video) is converted into an embedding, the k-NN index can quickly find the 'k' most similar video embeddings within the vast dataset. This is far more efficient than traditional database lookups for vector similarity. It allows for real-time semantic search across millions of video segments. By integrating seamlessly with other OpenSearch capabilities, it also facilitates hybrid search, combining vector similarity with traditional text-based filtering and scoring, ensuring a powerful and flexible search experience that scales with the size of the media library.

Fylgstu með

Fáðu nýjustu gervigreindarfréttirnar í pósthólfið.

Deila