top of page

As transmissões em streaming de contéudos multimédia só se tornaram possiveís devido ao surgimento de poderosos codecs de audio e vídeo. Codecs são aplicações em hardware ou software que comprimem ou descomprimem conteúdo multimédia digital. Embora o funcionamento interno destes codecs possa diferir de fabricante para fabricante, o formato dos dados comprimidos é especificado por standards de compressão e descompressão de dados publicados e desenvolvidos por entidades como o a International Organization for Standardization (ISO) ou a ITU Telecommunication Standardization Sector (ITU-T). Estes standards vieram possiblitar a compressão eficiente de audio e vídeo em formato digital e foram uma das grandes forças por de trás da transição de conteúdos multimédia, do suporte analógico para o mundo digital.

A adopção generalizada destes standards por parte de grandes empresas e provedores de serviços, veio possiblitar a interoperabilidade em grande escala entre dispositivos de diferentes fabricantes, um dos objetivos mais importantes. Devido à natureza abstracta destas normas isto é, definem uma estrutura de processos, ferramentas e formatos de dados a ser utilizados mas não como devem ser implementados tecnologicamente, a competição entre fabricantes por codecs cada vez mais eficientes e optimizados, cresceu grandemente. Isto fez nascer um abrangente leque de serviços de streaming de conteúdos multimédia, muitas vezes diferenciados pela qualidade e eficiência dos codecs utilizados.

Os percursores H.261 e MPEG-1

O H.261 elaborado pela ITU-T em 1988, foi o primeiro standard de compressão de vídeo com relevante interesse prático e com suporte para implementação em quantidades significativas. Desenhado primariamente para serviços de vídeoconferência e para operar sobre redes ISDN, o H.261 especifica regras de compressão de codificação de vídeo de modo a transmitir em larguras de banda múltiplas de 64Kb/s, a capacidade de um canal numa rede ISDN, entre os 40Kb/s e os 2Mb/s. Para larguras de banda mais elevadas, era necessário o uso de um maior número de canais o que na maior parte das vezes se tornava imprático e limitava a qualidade da transmissão.

O surgimento do MPEG-1, desenhado de forma semelhante ao H.261, surgiu da motivação de transicionar de suportes analógicos para digitais. Este standard é constituido por cinco partes. A primeira por exemplo, o MPEG-1 Systems, define como combinar uma ou mais streams de audio e vídeo codificadas numa única stream de bits transmissível, a MPEG-1 stream. Esta stream é especificamente desenhada com vista no armazenamento do contéudo multimédia em CD’s, suporte este que visava substituir as cassetes VHS analógicas. Devido a isto, eram necessárias streams transmissiveis através de larguras de banda perto dos 1,5Mb/s, a velocidade de leitura de um CD, embora fossem permitidas também larguras de banda maiores. Estas streams tinham ainda de proporcionar uma qualidade de vídeo mínima aceitável por forma a competir no mercado com o VHS. O MPEG-1 Video e o MPEG-1 Audio têm como objectivos a codificação e compressão eficiente de contéudo mutimédia em PCM e definem o formato das streams de vídeo e audio resultantes. O MPEG-1 Video explora a redundância temporal, espacial e estatística dos dados,  assim como a sua irrelevância, usando um híbrido de ferramentas como vetores e estimação de movimento, quantização e codificação entrópica.

Os standards referidos na secção anterior e evoluções subsequentes utilizam codificação intra-frame, semelhante à definida pelo JPEG, e codificação inter-frame. Este último tipo de codificação permite fazer predições entre frames passadas e futuras com a ajuda de vetores de movimento e mecanismos de estimação de movimento de precisão até ¼ de pixel, oferecendo um método para explorar a redundância temporal entre frames. A junção destes dois tipos de codificação permite cumprir os requerimentos de random access, fast forward/reverse e reverse playback desejados para as streams do MPEG-1. Na figura 1 pode encontrar-se um exemplo de um codificador especificado por este standart.

 

 

 

 

 

 

 

 

 

​

Figura 1: Esquema de codificação da norma MPEG-1 [2].

​

Para explorar a redundância espacial dentro de um mesmo bloco (unidades básicas de codificação de 8x8 pixel), é a usada a Discrete Cossine Transform (DCT). Grande parte da compressão é conseguida fazendo passar os coeficientes DCT por funções de quantização cuidadosamente desenhadas. Estas funções de quantização são o que faz este tipo de codificação ser uma codificação com perdas e exploram a irrelevância de uma imagem sendo construídas tendo em conta o sistema visual humano e outros aspetos relacionados com o funcionamento cerebral. Grande parte da compressão conseguida pelos codecs que implementam estes standards é feita com estas ferramentas. O uso de codificação entrópica é outra ferramenta relevante destes standards onde se explora a redundância estatística dos dados e que permite a formatação eficiente e comprimida das streams resultantes. Através destas ferramentas, conseguem-se racios de compressão elevados e adaptados às capacidades das redes de transmissão de dados e dos dispositivos de armazenamento.

 

Standards mais elaborados, como o MPEG-2 e o MPEG-4 surgiram devido ao avanço das tecnologias e novos requerimentos das aplicações e serviços de conteúdos multimédia. O MPEG-2 já foi desenhado a pensar em aplicações que requerem larguras de banda ligeiramente mais elevadas, não estando otimizado para bit rates inferiores a 1 Mb/s. É muito usado por serviços de televisão e para armazenamento de dados multimédia em DVDs. O MPEG-4 é mais abrangente e inclui melhorias e otimizações em relação aos seus predecessores, bem como novas características adaptadas a vários tipos de aplicações e serviços. Nestes standards, as ferramentas e métodos a usar para a compressão e codificação de vídeo, são semelhantes e baseadas nas explicadas na secção anterior e nas originalmente especificadas no MPEG-1 Video. O uso de codecs destes tipos, forneceu a base para a criação e desenvolvimento de serviços e aplicações baseados em streaming  de conteúdos multimédia.

Ferramentas e métodos de codificação e compressão de dados

CODECS MULTIMÉDIA

bottom of page