40381ssssssssssss

A IA oferece melhor Media Asset Management (MAM) para transmissão

A triste história dos arquivos de vídeo — seja numa estação de TV, rede, centro de produção, casa pós-produção ou mesmo em instituições corporativas ou governamentais não difundidas — é o desejo de encontrar o conteúdo certo que sempre superou a capacidade de o fazer.
Computador com o vídeo indexando ai
A quantidade total de imagens de arquivo disponíveis para os emissores dificulta a procura de conteúdo específico

Quer se tratasse de uma estação de TV com cassetes Betacam de 3/4 polegadas ou de 1/2 polegadas na prateleira após prateleira de armazenamento em alguma sala de biblioteca de fitas fora de movimento, um estúdio de cinema com o mesmo — mas maior — tipo de arquivo para filmes e outros conteúdos cinematográficos, armazenamento NAS ou SAN, RAIDs ou JBODs ou sistemas de gestão de ativos de media para fins especiais, o conceito é claro. Faz sentido manter imagens valiosas que podem ser reutilizadas, re-rentabilizadas e remodeladas para relançar quando se trata de alguns filmes.

Qualquer pessoa que já trabalhou numa redação nos dias de videocassettes viu este cenário ou alguma variação acontecer mais do que uma vez: um repórter, editor ou produtor de notícias a desviar uma determinada cassete com imagens-chave que seriam procuradas num futuro previsível apenas para evitar ter de procurar nas prateleiras ou colegas texugos para o encontrar.

Este cenário ilustra uma verdade fundamental. As imagens arquivadas só são valiosas se a encontrarem.

 

A introdução de sistemas de Gestão de Ativos de Media

A génese dos sistemas de Media Asset Management (MAM) foi o desejo de desbloquear este valor fazendo com que o conteúdo armazenado – seja online, próximo ou em arquivo profundo – seja detetável e acessível. O mercado tem recompensado os fornecedores da MAM pelos seus esforços e procura continuar a fazê-lo.

No seu relatório “Global Media Asset Management (MAM) Solutions”, a empresa de pesquisa de mercado e consultoria Technavio prevê que o mercado de MAM cresça 6,74 mil milhões de dólares durante o período 2020-2024.

Muitos fatores contribuem para este crescimento esperado. O aumento dramático do número de pessoas em todo o mundo que estão ligadas à internet e querem transmitir conteúdo sonoro, o desejo dos profissionais dos media de encontrar maiores eficiências no fluxo de trabalho, o crescimento do comércio digital e da publicidade digital para o apoiar e até o desejo das empresas de media de proteger o pessoal da COVID-19, permitindo-lhes trabalhar a partir de casa, tendo acesso aos conteúdos armazenados num MAM baseado na nuvem, estão a ajudar a impulsionar este crescimento.

É evidente que o desejo de armazenar e aceder aos meios de comunicação é forte. Mas que tal a capacidade de encontrar o conteúdo certo armazenado num sistema MAM? Isto manteve o ritmo? Mais importante ainda, os MAMs oferecem mais do que armazenamento e descoberta? Podem ser mais úteis na geração de novos conteúdos?

 

O problema com a Media Asset Management (MAM) hoje

O elo mais fraco na cadeia de transmissão de gestão de ativos dos media é a geração de metadados. Embora as câmaras digitais de hoje, por exemplo, tenham a capacidade de gerar alguns metadados automaticamente, tais como dados de localização GPS, configurações de câmaras, lentes usadas, informações de cena, data, hora e outras informações úteis, que só vão até agora.

Informações mais detalhadas, como quem ou o que está no filme, o contexto do tiro, como uma conferência de imprensa do gabinete do governador e palavras-chave ditas que proporcionem mais contexto, devem ser inseridas manualmente se forem inscritas. Isso derrota, pelo menos parcialmente, uma das principais razões para integrar um MAM num fluxo de trabalho dos meios de comunicação social, nomeadamente o reforço da eficiência do fluxo de trabalho.

 

Como a IA pode ajudar a descobrir conteúdo perdido

Recentemente, no entanto, os algoritmos de inteligência artificial tornaram-se disponíveis que não só removem a penosa de rever manualmente as imagens e gerar este nível de metadados, mas também o fazem de forma incrivelmente rápida, fazendo um rápido trabalho de melhoria dos metadados existentes para imagens já armazenadas e, assim, desbloquear mais plenamente o seu valor oculto.

Aproveitando algoritmos de IA, tais como discurso-a-texto, reconhecimento de objetos e reconhecimento facial, disponíveis através da TVU Networks. O motor de IA MediaMind, para gerar metadados numa base quadro a quadro para conteúdos armazenados no local ou na nuvem num MAM ou mesmo em qualquer outro meio de armazenamento digital existente, torna muito mais fácil encontrar e utilizar o videoclip preciso desejado.

A implicação de ter este nível de metadados é ainda maior na nalísse de transformar MAMs para sempre. Como é que é? Ao disponibilizar cada dispositivo de armazenamento digital que detenha os meios de comunicação simplesmente um de um número incontínuo de nós de armazenamento num MAM ubíquo e virtual disponível para qualquer pessoa com as permissões certas a qualquer momento de qualquer lugar com ligação à Internet.

 

O futuro do MAM para transmissão

O armazenamento de MAM melhorado pela IA na televisão tocará muitos fluxos de trabalho. Na redação, o acesso a um MAM melhorado pela IA aumentará a produtividade dos repórteres e editores que precisam de encontrar imagens arquivadas para uma história.

Durante as notícias ao vivo e os assuntos públicos transmitidos, tal MAM tornará prático para um produtor de espetáculos encontrar clips armazenados no ar que sejam pertinentes para o que um hóspede ou anfitrião está a discutir, e para a gestão, ter este nível de metadados tornará muito mais fácil completar a documentação regularmente necessária para provar o cumprimento dos regulamentos da FCC.

Da mesma forma, no armazenamento de MAM melhorado após a produção de IA facilitará a procura das tomadas certas durante a edição e identificará rapidamente clips arquivados para coisas como estabelecer shots ou até mesmo fotos substitutas adequadas em alguns casos quando os planos mudam.

Mas este é apenas o início de como o armazenamento de MAM melhorado pela IA em última análise irá afetar a criação de conteúdos. Um dia, num futuro não muito distante, será possível aos repórteres escreverem histórias, editores que povoam as cronologias do NLE e outros para iniciarem o seu processo criativo e terem a sua ferramenta de escrita ou edição a puxarem os clips armazenados que a tecnologia de IA determina que podem ser apropriados para o trabalho em curso.

Por exemplo, como repórter da TV a trabalhar numa história sobre uma recontagem de votos em George começa a escrever as palavras “Brad Raffensperger” (o Secretário de Estado da Geórgia), um clip em que diz “Parece que o vice-presidente Biden vai carregar a Geórgia” aparece automaticamente para o repórter, que pode fazer a escolha de usá-lo ou desconsiderá-lo. Mais à frente na história, quando o repórter escreve “o Presidente Trump contra-atacar”, surge um clip relevante do discurso de 45 minutos feito em 2 de dezembro, no qual ele expôs alegações de fraude eleitoral. Mais uma vez, o repórter pode optar por usar o clip ou deixá-lo fora da história.

Quando esse dia chegar, o desejo de encontrar o videoclip certo e a capacidade de realmente fazê-lo será igualado.