Code Velocity
კორპორატიული AI

მულტიმოდალური ჩაშენებების მასშტაბირება: ხელოვნური ინტელექტის მონაცემთა ტბა მედია და გასართობი ინდუსტრიისთვის

·5 წუთი კითხვა·AWS·ორიგინალი წყარო
გაზიარება
დიაგრამა, რომელიც ასახავს AWS მულტიმოდალური ჩაშენების ხელოვნური ინტელექტის მონაცემთა ტბის არქიტექტურას ვიდეო ძიებისთვის, სადაც ნაჩვენებია მონაცემთა ნაკადი S3-დან OpenSearch-ში Nova-სა და Bedrock-ის გავლით.

ვიდეო ძიების რევოლუცია მულტიმოდალური ჩაშენებების გამოყენებით

მედია და გართობის ინდუსტრია ვიდეო კონტენტის ვრცელი ოკეანეებით არის მოცული. საარქივო მასალიდან ყოველდღიურ ატვირთვებამდე, მოცულობის სიმრავლე ტრადიციულ კონტენტის აღმოჩენის მეთოდებს — ხელით დატეგვასა და საკვანძო სიტყვებზე დაფუძნებულ ძიებებს — სულ უფრო არაეფექტურს და ხშირად არაზუსტს ხდის. ეს მოძველებული მიდგომები ვერ ახერხებენ ვიდეოში ჩადებული სრული სიმდიდრისა და ნიუანსური კონტექსტის დაჭერას, რაც იწვევს კონტენტის ხელახალი გამოყენების, წარმოების დაჩქარებისა და მაყურებლისთვის გაუმჯობესებული გამოცდილების ხელიდან გაშვებულ შესაძლებლობებს.

დადგა მულტიმოდალური ჩაშენებების ერა. AWS პიონერულად ნერგავს გადაწყვეტას, რომელიც სცილდება ამ შეზღუდვებს, რაც შესაძლებელს ხდის სემანტიკურ ძიებას კოლოსალურ ვიდეო მონაცემთა ნაკრებებზე. Amazon Nova მოდელებისა და Amazon OpenSearch Service-ის ძალის გამოყენებით, კონტენტის შემქმნელებსა და დისტრიბუტორებს შეუძლიათ გასცდნენ ზედაპირულ საკვანძო სიტყვებს, რათა ჭეშმარიტად გაიგონ და მიიღონ წვდომა თავიანთ მედია ბიბლიოთეკებზე. ეს ინოვაციური მიდგომა ბუნებრივი ენის მოთხოვნებს საშუალებას აძლევს ჩაეძიოს ვიზუალური და აუდიტორული ინფორმაციის სიღრმეებს, რაც უპრეცედენტო სიზუსტეს შემოაქვს კონტენტის აღმოჩენაში.

ამ შესაძლებლობის შთამბეჭდავი მასშტაბით დემონსტრირებით, AWS-მა დაამუშავა 792,270 ვიდეო AWS Open Data Registry-დან, რაც მოიცავს ვიდეო კონტენტის გასაოცარ 8,480 საათს. ამ ამბიციურმა წამოწყებამ, რომელსაც მხოლოდ 41 საათი დასჭირდა 30.5 მილიონზე მეტი წამის ვიდეოს დასამუშავებლად, ხაზს უსვამს ამ ხელოვნური ინტელექტის მართული მიდგომის მასშტაბურობასა და ეფექტურობას. პირველი წლის ხარჯი, ერთჯერადი მიღების და ყოველწლიური OpenSearch Service-ის ჩათვლით, შეფასდა მაღალ კონკურენტულ $23,632-დან (OpenSearch Service Reserved Instances-ით) $27,328-მდე (on-demand). ასეთი გადაწყვეტა ფუნდამენტურად ცვლის იმას, თუ როგორ ურთიერთობენ მედია კომპანიები თავიანთ ციფრულ აქტივებთან, ხსნის ახალ გზებს კონტენტის მონეტიზაციისა და წარმოების სამუშაო პროცესებისთვის. ეს პარადიგმის ცვლილება სემანტიკური გაგებისკენ არის კრიტიკული განვითარება კორპორატიული ხელოვნური ინტელექტისთვის მედიაში.

მასშტაბირებადი მულტიმოდალური ხელოვნური ინტელექტის მონაცემთა ტბის არქიტექტურის გაგება

თავის არსში, ვიდეო ძიების ეს მძლავრი მულტიმოდალური სისტემა აგებულია ორ ურთიერთდაკავშირებულ სამუშაო პროცესზე: ვიდეოს მიღება (ingestion) და ძიება. ეს კომპონენტები უწყვეტად ინტეგრირდება ხელოვნური ინტელექტის მონაცემთა ტბის შესაქმნელად, რომელიც გაიგებს და მოსაძებნს ხდის ვიდეო კონტენტის რთულ დეტალებს.

ვიდეოს მიღების (ინჯესტირების) კონვეიერი

მიღების კონვეიერი შექმნილია პარალელური დამუშავებისა და ეფექტურობისთვის. ის იყენებს ოთხ Amazon EC2 c7i.48xlarge ინსტანციას, ორკესტრირებს 600-მდე პარალელურ მუშაკს, რათა მიაღწიოს 19,400 ვიდეოს დამუშავების სიჩქარეს საათში. თავდაპირველად Amazon S3-ში ატვირთული ვიდეოები შემდეგ მუშავდება Amazon Nova Multimodal Embeddings ასინქრონული API-ის მიერ. ეს API ინტელექტუალურად ყოფს ვიდეოებს ოპტიმალურ 15-წამიან ნაწილებად — რაც არის ბალანსი მნიშვნელოვანი სცენების ცვლილებების აღებასა და გენერირებული ჩაშენებების მოცულობის მართვას შორის. თითოეული სეგმენტი შემდეგ გარდაიქმნება 1024-განზომილებიან ჩაშენებად, რომელიც წარმოადგენს მის კომბინირებულ აუდიო-ვიზუალურ მახასიათებლებს. მიუხედავად იმისა, რომ 3072-განზომილებიანი ჩაშენებები უფრო მაღალ სიზუსტეს გვთავაზობს, 1024-განზომილებიანი ვარიანტი უზრუნველყოფს 3-ჯერ შენახვის ხარჯების დაზოგვას სიზუსტეზე მინიმალური გავლენით ამ აპლიკაციისთვის, რაც მას მასშტაბისთვის პრაგმატულ არჩევანად აქცევს.

ძიების გაუმჯობესების მიზნით, Amazon Nova Pro (ან უფრო ახალი, ხარჯთეფექტური Nova 2 Lite) გამოიყენება 10-15 აღწერილობითი ტეგის გენერირებისთვის ვიდეოზე წინასწარ განსაზღვრული ტაქსონომიიდან. ეს ორმაგი მიდგომა უზრუნველყოფს, რომ კონტენტი აღმოჩენილი იყოს როგორც სემანტიკური მსგავსების, ასევე ტრადიციული საკვანძო სიტყვების შესატყვისობის მეშვეობით. ეს ჩაშენებები ინახება OpenSearch k-NN ინდექსში, რომელიც ოპტიმიზირებულია ვექტორული მსგავსების ძიებისთვის, ხოლო აღწერილობითი ტეგები ინდექსირებულია ცალკე ტექსტურ ინდექსში. ეს განცალკევება საშუალებას იძლევა მოქნილი და ეფექტური მოთხოვნებისთვის. კონვეიერი მართავს Bedrock-ის პარალელური ლიმიტებს (30 პარალელური სამუშაო ანგარიშზე) მძლავრი სამუშაო რიგისა და გამოკითხვის მექანიზმის მეშვეობით, რაც უზრუნველყოფს უწყვეტ და შესაბამის დამუშავებას.

ქვემოთ მოცემულია ამ დახვეწილი მიღების პროცესის ვიზუალური წარმოდგენა:

სურათი 1: ვიდეოს მიღების კონვეიერი, რომელიც აჩვენებს ნაკადს S3 ვიდეო საცავიდან Nova Multimodal Embeddings-ისა და Nova Pro-ს გავლით ორ OpenSearch ინდექსში

ვიდეო ძიების მრავალფეროვანი შესაძლებლობების გაძლიერება

ძიების არქიტექტურა შექმნილია მრავალფეროვნებისთვის, რაც კონტენტის აღმოჩენის მრავალ რეჟიმს გვთავაზობს:

  1. ტექსტი-ვიდეოზე ძიება: მომხმარებლებს შეუძლიათ შეიყვანონ ბუნებრივი ენის მოთხოვნები, როგორიცაა "დრონის კადრი ღამის ხმაურიანი ქალაქის" ან "მზარეულის ახლო კადრი, რომელიც გურმანულ კერძს ამზადებს". სისტემა ამ მოთხოვნებს გარდაქმნის ჩაშენებებად, შემდეგ იყენებს OpenSearch k-NN ინდექსს, რათა იპოვოს ვიდეო სეგმენტები ან მთლიანი ვიდეოები, რომლებიც სემანტიკურად ემთხვევა აღწერას, მაშინაც კი, თუ ზუსტი სიტყვები არ არის რაიმე მეტამონაცემებში. ეს იდეალურია კონტენტის ინტუიციური აღმოჩენისა და სცენარისთვის.

  2. ვიდეო-ვიდეოზე ძიება: სცენარებისთვის, სადაც მომხმარებელს აქვს ვიდეო კლიპი და სურს მსგავსი კონტენტის პოვნა, ეს რეჟიმი შესანიშნავია. შეტანილი ვიდეოს ჩაშენებების პირდაპირ OpenSearch k-NN ინდექსში არსებულ ჩაშენებებთან შედარებით, სისტემას შეუძლია ვიზუალურად და აუდიალურად ანალოგიური კონტენტის იდენტიფიცირება. ეს ფასდაუდებელია B-roll კადრების იდენტიფიცირებისთვის, კონტენტის თანმიმდევრულობის უზრუნველსაყოფად ან წარმოებული ნამუშევრების აღმოსაჩენად.

  3. ჰიბრიდული ძიება: აერთიანებს ორივე სამყაროს საუკეთესოს, ჰიბრიდული ძიება აინტეგრირებს ვექტორულ მსგავსებას ტრადიციულ საკვანძო სიტყვების შესატყვისობასთან. შემოთავაზებული გადაწყვეტა იყენებს შეწონილ მიდგომას (მაგ., 70% ვექტორული მსგავსება და 30% საკვანძო სიტყვების შესატყვისობა). ეს უზრუნველყოფს მაღალ სიზუსტესა და შესაბამისობას, რაც საშუალებას აძლევს კონკრეტულ მეტამონაცემებს წარმართოს ძიება, ხოლო სემანტიკური გაგება უზრუნველყოფს ფართო კონტექსტურ შესატყვისობებს. ეს მიდგომა განსაკუთრებით ეფექტურია რთული მოთხოვნებისთვის, რომლებიც სარგებლობენ როგორც ზუსტი ტეგებით, ასევე კონცეპტუალური გაგებით.

სურათი 2: ვიდეო ძიების არქიტექტურა, რომელიც აჩვენებს ძიების სამ რეჟიმს – ტექსტი-ვიდეოზე, ვიდეო-ვიდეოზე და ჰიბრიდული ძიება, რომელიც აერთიანებს k-NN-ს და BM25-ს

ეფექტური განთავსება და წინაპირობები

ასეთი დახვეწილი ხელოვნური ინტელექტის მონაცემთა ტბის განთავსება მოითხოვს ინფრასტრუქტურისა და ხარჯების ფრთხილად გათვალისწინებას, რაც AWS-მა ეფექტურობისთვის ოპტიმიზირებულია. გაფართოებული მონაცემთა ნაკრებების, დაახლოებით 8,480 საათის ვიდეო კონტენტის დამუშავების საერთო ღირებულება შეადგენდა დაახლოებით $27,328-ს პირველი წლისთვის (OpenSearch on-demand-ით) ან $23,632-ს (OpenSearch Service Reserved Instances-ით).

მიღების ხარჯების ანალიზი ხაზს უსვამს ძირითად ხარჯვით ფაქტორებს:

  • Amazon EC2 გამოთვლები: $421 (4x c7i.48xlarge spot ინსტანცია 41 საათის განმავლობაში)
  • Amazon Bedrock Nova Multimodal Embeddings: $17,096 (30.5M წამი $0.00056/წამიანი პარტიული ფასით)
  • Nova Pro დატეგვა: $571 (792K ვიდეო, დაახლოებით 600 ტოკენი/ვიდეო საშუალოდ)
  • Amazon OpenSearch Service: $9,240 (on-demand წლიური) ან $5,544 (Reserved წლიური)

განხორციელების წინაპირობები: ამ გადაწყვეტის რეპლიკაციისთვის ან ადაპტაციისთვის დაგჭირდებათ:

  1. AWS ანგარიში Amazon Bedrock-ზე წვდომით us-east-1 რეგიონში.
  2. Python 3.9 ან უფრო ახალი.
  3. AWS Command Line Interface (AWS CLI), კონფიგურირებული შესაბამისი ავტორიზაციის მონაცემებით.
  4. Amazon OpenSearch Service დომენი (რეკომენდებულია r6g.large ან უფრო დიდი), ვერსია 2.11 ან უფრო ახალი, k-NN პლაგინის ჩართვით.
  5. Amazon S3 bucket ვიდეოების შესანახად და ჩაშენების შედეგებისთვის.
  6. AWS Identity and Access Management (IAM) ნებართვები Amazon Bedrock-ისთვის, OpenSearch Service-ისთვის და Amazon S3-ისთვის.

გადაწყვეტა იყენებს კონკრეტულ AWS სერვისებსა და მოდელებს:

  • Amazon Bedrock amazon.nova-2-multimodal-embeddings-v1:0-ით ჩაშენებებისთვის.
  • Amazon Bedrock us.amazon.nova-pro-v1:0 ან us.amazon.nova-2-lite-v1:0-ით დატეგვისთვის.
  • Amazon OpenSearch Service 2.11+ k-NN პლაგინით.
  • Amazon S3 შესანახად.

მულტიმოდალური ვიდეო ძიების გადაწყვეტის დანერგვა

ამ არქიტექტურის დანერგვა მოიცავს AWS გარემოს კონფიგურაციის სტრუქტურირებულ მიდგომას. პირველი გადამწყვეტი ნაბიჯი არის აუცილებელი ნებართვების დადგენა.

ნაბიჯი 1: IAM როლებისა და პოლიტიკების შექმნა

თქვენ უნდა შექმნათ IAM როლი, რომელიც თქვენს აპლიკაციას ან სერვისს მიანიჭებს უფლებამოსილებას AWS-ის სხვადასხვა კომპონენტთან ურთიერთობისთვის. ეს როლი უნდა მოიცავდეს ნებართვებს Amazon Bedrock მოდელების გამოძახებისთვის (როგორც ჩაშენებების გენერირებისთვის, ასევე დატეგვისთვის), მონაცემების OpenSearch ინდექსებში ჩასაწერად და Amazon S3 bucket-ებზე წაკითხვა/ჩაწერის ოპერაციების შესასრულებლად, სადაც თქვენი ვიდეო კონტენტი და დამუშავებული შედეგებია განთავსებული.

აქ მოცემულია ძირითადი IAM პოლიტიკის სტრუქტურის მაგალითი:

{
  "Version": "2012-10-17",
  "Statement": [
    {
      "Effect": "Allow",
      "Action": [
        "bedrock:InvokeModel",
        "bedrock:StartAsyncInvoke",
        "bedrock:GetAsyncInvoke",
        "bedrock:List"
      ],
      "Resource": "arn:aws:bedrock:us-east-1::foundation-model/amazon.nova-*"
    },
    {
      "Effect": "Allow",
      "Action": [
        "s3:GetObject",
        "s3:PutObject",
        "s3:ListBucket"
      ],
      "Resource": [
        "arn:aws:s3:::your-video-bucket/*",
        "arn:aws:s3:::your-video-bucket"
      ]
    },
    {
      "Effect": "Allow",
      "Action": [
        "es:ESHttpPost",
        "es:ESHttpPut",
        "es:ESHttpDelete",
        "es:ESHttpGet"
      ],
      "Resource": "arn:aws:es:us-east-1:*:domain/your-opensearch-domain/*"
    }
  ]
}

ეს პოლიტიკა ანიჭებს სპეციფიკურ ნებართვებს, რომლებიც აუცილებელია კონვეიერის მუშაობისთვის. გახსოვდეთ, რომ ჩანაცვლოთ placeholder-ები, როგორიცაა your-video-bucket და your-opensearch-domain თქვენი რეალური რესურსების სახელებით. IAM-ის კონფიგურაციის შემდეგ, თქვენ გადახვალთ S3 bucket-ების კონფიგურაციაზე, OpenSearch Service დომენის დაყენებაზე k-NN-ის ჩართვით და ორკესტრირების ლოგიკის შემუშავებაზე, რომელიც იყენებს Bedrock API-ებს მიღებისთვის. ეს მძლავრი ჩარჩო უზრუნველყოფს, რომ მედია და გართობის კომპანიებმა შეძლონ ეფექტურად მართონ, აღმოაჩინონ და მოახდინონ მონეტიზაცია თავიანთი მუდმივად მზარდი კონტენტის ბიბლიოთეკებზე, რაც მნიშვნელოვან ნახტომს აღნიშნავს კონტენტის ინტელექტში. ეს ყოვლისმომცველი გადაწყვეტა არის მაგალითი იმისა, თუ როგორ აყალიბებს თანამედროვე ხელოვნური ინტელექტის შესაძლებლობები, განსაკუთრებით მულტიმოდალურ გაგებაში, ინდუსტრიის სტანდარტებს კონტენტის მართვისა და ხელმისაწვდომობისთვის. ეს არის მოწინავე ხელოვნური ინტელექტის მოდელების მასშტაბირებადი ღრუბლოვან ინფრასტრუქტურასთან ინტეგრაციის ძალის დადასტურება, რათა გადაწყდეს რეალური სამყაროს კორპორატიული ხელოვნური ინტელექტის გამოწვევები, რაც ხელს უწყობს ისეთ მიღწევებს, როგორიც ჩანს აგენტური ხელოვნური ინტელექტის სამუშაო პროცესებში.

ხშირად დასმული კითხვები

What is a multimodal AI data lake for media and entertainment workloads?
A multimodal AI data lake for media and entertainment is an advanced system designed to store, process, and enable intelligent search across vast collections of video content. Unlike traditional keyword-based systems, it leverages AI models, specifically multimodal embeddings, to understand the nuanced meaning and context within audio and visual data. This allows for semantic search capabilities, where users can query content using natural language descriptions or by providing another video, moving beyond simple tags to find relevant moments or entire videos based on their actual content. AWS's solution utilizes services like Amazon Nova for embedding generation and Amazon OpenSearch Service for efficient storage and retrieval of these high-dimensional vectors, making it ideal for large-scale content libraries.
How does the video ingestion pipeline handle large-scale datasets?
The video ingestion pipeline detailed in the article is engineered for massive scale, demonstrating processing of nearly 800,000 videos totaling over 8,480 hours of content. It employs a distributed architecture using multiple Amazon EC2 instances (e.g., c7i.48xlarge) to parallelize video processing. Key to its efficiency is the asynchronous API of Amazon Nova Multimodal Embeddings, which segments videos into optimal chunks (e.g., 15-second segments) and generates 1024-dimensional embeddings. To manage Bedrock's concurrency limits, the pipeline implements a job queue with polling, ensuring continuous processing. Additionally, Amazon Nova Pro (or Nova Lite) is used to generate descriptive tags, further enriching the metadata. These embeddings and tags are then efficiently indexed into Amazon OpenSearch Service's k-NN and text indices respectively, preparing the data for rapid search.
What types of video search capabilities does this solution enable?
This multimodal AI data lake solution provides three powerful video search capabilities, significantly enhancing content discovery. First, **Text-to-video Search** allows users to input natural language queries (e.g., 'a person surfing at sunset') which are then converted into embeddings and matched semantically against video content, going beyond exact keyword matches. Second, **Video-to-video Search** enables users to find similar video segments or entire videos by comparing their embeddings directly, useful for content recommendations or identifying duplicates. Third, **Hybrid Search** combines the strengths of both semantic vector similarity and traditional keyword matching (e.g., 70% vector, 30% keyword) for maximum accuracy and relevance, especially when dealing with complex queries that benefit from both contextual understanding and specific metadata.
Which AWS services are critical for building this multimodal embedding solution?
Several core AWS services are critical for constructing this scalable multimodal embedding solution. At its heart are **Amazon Bedrock** and its **Nova Multimodal Embeddings** for generating high-dimensional vector representations from video and audio, and **Nova Pro** (or **Nova Lite**) for intelligent tagging. **Amazon OpenSearch Service** (specifically with its k-NN plugin) serves as the scalable vector database to store and query these embeddings, alongside a traditional text index for metadata. **Amazon S3** (Simple Storage Service) is essential for storing the raw video files and the outputs of the embedding process. **Amazon EC2** provides the compute power for orchestrating the ingestion pipeline and managing the large-scale processing of video data. Additionally, **AWS IAM** is vital for securing access and permissions across these integrated services.
What are the cost considerations for deploying such a large-scale multimodal video search system?
Deploying a large-scale multimodal video search system, as demonstrated by the processing of over 8,000 hours of video, involves significant but manageable costs. The article provides a detailed breakdown, estimating a first-year total cost of approximately $23,632 to $27,328. This cost is primarily divided into two components: one-time ingestion costs and ongoing annual Amazon OpenSearch Service costs. Ingestion is dominated by Amazon Bedrock Nova Multimodal Embeddings usage, charged per second of processed video, and Nova Pro tagging. Amazon EC2 compute for orchestration also contributes but is comparatively smaller. OpenSearch Service costs can be optimized by using Reserved Instances over on-demand pricing. Careful planning and monitoring of resource usage, especially Bedrock API calls and OpenSearch cluster sizing, are key to managing and optimizing these expenditures.
Why is semantic search using multimodal embeddings superior to traditional keyword search for video content?
Semantic search, powered by multimodal embeddings, offers a profound advantage over traditional keyword search for video content by enabling a deeper, contextual understanding. Keyword search is limited to exact matches of words and phrases, often failing to capture synonyms, related concepts, or the visual and auditory nuances of video. For instance, searching for 'people talking' might miss a scene where individuals are silently communicating through gestures. Multimodal embeddings, however, convert the rich information from both audio and video into dense numerical vectors. These vectors capture the meaning, style, and context, allowing for queries based on conceptual similarity rather than just lexical matches. This means users can find relevant content even if the exact keywords aren't present, or describe a visual scene using natural language, significantly improving content discovery and relevance in large video archives.
How does the Amazon Nova family of models contribute to this solution?
The Amazon Nova family of models plays a central role in enabling this advanced multimodal video search solution. Specifically, **Amazon Nova Multimodal Embeddings** is the backbone for transforming raw video and audio into actionable high-dimensional vectors (embeddings). It intelligently segments videos and extracts combined audio-visual features, allowing for sophisticated semantic comparisons. This model is crucial for both text-to-video and video-to-video search functionalities. Additionally, **Amazon Nova Pro** (or the more cost-effective **Nova Lite**) is utilized for generating descriptive tags. These tags enrich the video metadata, enabling hybrid search scenarios where both conceptual similarity and specific keywords can be used to refine search results. Together, these Nova models empower the system to understand, categorize, and make searchable the complex information contained within video content.
What are the benefits of using OpenSearch Service's k-NN index in this architecture?
Amazon OpenSearch Service's k-NN (k-Nearest Neighbor) index is a cornerstone of this multimodal video search architecture, providing the capability to efficiently store and query high-dimensional vector embeddings. The primary benefit is enabling rapid and accurate semantic search. When a query (text or video) is converted into an embedding, the k-NN index can quickly find the 'k' most similar video embeddings within the vast dataset. This is far more efficient than traditional database lookups for vector similarity. It allows for real-time semantic search across millions of video segments. By integrating seamlessly with other OpenSearch capabilities, it also facilitates hybrid search, combining vector similarity with traditional text-based filtering and scoring, ensuring a powerful and flexible search experience that scales with the size of the media library.

იყავით ინფორმირებული

მიიღეთ უახლესი AI სიახლეები ელფოსტაზე.

გაზიარება