Questions fréquemment posées

Cette information est destinée à répondre à certaines des questions qui viennent souvent et de fournir une meilleure compréhension des produits d’ATEME , des solutions et de l’écosystème de diffusion vidéo . Il fournit des informations de base, parfois sur des sujets complexes , avec des liens vers des informations plus détaillées . Nous vous invitons à nous contacter si vous avez besoin de plus de connaissances en profondeur .

Selectionnez le sujet:

Comment respecter la réglementation sur l'intensité sonore ?

L’UIT a standardisé les mesures de l’intensité sonore à travers l’UIT- R BS.1770 avec une unité nommée LKFS. Cette définition a été nécessaire pour la fixation de limites supérieures par des organismes de régulation comme la FCC américaine avec le CALM act ATSC A/85, ou le CSA français avec l’EBU R 128.

Comment organiser les flux audio description ?

L’audio description permet aux mal et non-voyants d’entendre la voix d’un narrateur accompagnant le programme diffusé sur l’écran. L’audio description est généralement livrée par la production sous forme d’une piste stéréo supplémentaire avec un premier canal intégré dans l’audio standard, selon les tonalités de repère du deuxième canal, généralement pendant les pauses de dialogue. Ce précédé peut être mis en œuvre du côté du récepteur, ce qui permet d’économiser la bande passante audio, ou du côté du diffuseur, ce qui réduit l’impact STB car la trame narrative est pré-mixée.

Comment fournir une véritable expérience 5.1 sur une infrastructure de prestation 2.0 ?

Offrir une expérience audio 5.1 multi-canal aux utilisateurs finaux sur une architecture de transmission audio prévue pour la stéréo peut s’avérer être un challenge majeur. Les technologies Surround, comme le DTS Neural Surround simplifient grandement cette tâche sans compromission sur la qualité. En amont d’une transmission stéréo traditionnelle, les composants de l’audio 5.1 sont mixés et encodés au format AAC. Du côté du lecteur, le rendu peut être fait directement en stéréo, mais aussi, après mixage, en haute fidélité 5.1.

Qu’est que DPI (Digital Program Insertion) ?

Comme le nom le suggère, le DPI est une fonctionnalité permettant d’insérer du contenu dans un flux live. L’application principale est l’insertion de contenu publicitaire, qui est insérée à la volée (sans interruption du flux) entre la tête de réseau et l’écran du client. Nous parlons d’insertion publicitaire régionalisée quand les contenus varient selon la région. .

Comment fonctionne DPI ?

Le splicer est l’équipement qui effectue le replacement de contenu ; ce remplacement est déclenché par un marqueur qui définit une fenêtre d’insertion. Aujourd’hui, le standard SCTE35 définit de tels marqueurs pour les flux live. Lorsque le splicer détecte l’un de ses marqueurs, le contenu alternatif fourni est inséré en et remplace le flux live. Ces marqueurs permettent également de gérer la durée d’un évènement de splice afin de garantir un retour au flux live automatique.

Qu’est-ce que c’est blackout management ?

Le blackout management est une fonction du DPI qui consiste à gérer les flux live en fonction des droits attribués aux spectateurs, par exemple selon un découpage géographique. Le blackout management repose sur une architecture et des marqueurs communs à l’ensemble des spectateurs visés.

Qu’elles sont les différents formats pour les sous-titres et les légendes ?

Les sous-titres se composent de la transcription ou de la traduction du dialogue et les légendes incluent des descriptions non-verbales pour les malentendants. Les deux peuvent être visibles de tous les spectateurs car faisant partie de l’image ou pouvant être sélectionnables par le spectateur. Les formats les plus courants sont le format CEA-608/708 CC, les sous-titres DVBetle Teletext DVB.

Quelle est la différence entre le sous-titrage bitmap et télétexte ?

Quand ils ne font pas partie intégrante de l’image, les sous-titres ou les légendes peuvent être transmis en parallèle de la vidéo sous forme de texte ou d’image. La première possibilité permet une plus grande souplesse au niveau du rendu alors que la seconde offre une plus grande fidélité à la source. La conversion d’un texte en format image est simple, mais l’inverse ne l’est pas car les images sont souvent utilisées pour des langues qui comportent des caractères ou des idéogrammes complexes. Les formats CEA- 608/708 CC et DVB Télétexte sont basés sur du texte, alors que les sous-titres DVB et DVD sous-titres sont basées sur de l’image.

Quels sont les challenges ?

La disponibilité d’Internet va croissant, le réseau restant cependant non géré, notamment du fait des différents chemins de transport de données. Il peut se produire des pertes de paquets, de la congestion de trafic et de la gigue réseau qui occasionne des pertes de données à la réception. D’autre-part la bande passante disponible peut varier en fonction du trafic réseau en cours. Pour surmonter ces problèmes, des mécanismes de robustesse sont nécessaires.

Quelles applications de contribution peuvent être faites à travers internet ?

Les informations nationales en direct, les cérémonies sportives, les interviews sur les terrains sportifs et les festivals de musique sont typiquement le genre d’événements où la contribution à faible coût peut s’appliquer, qu’elle soit en point-à-point ou en point-à-multi-point. Tant qu’un accès à internet est possible, les diffuseurs peuvent maintenant l’utiliser pour résoudre le défi de la connectivité des derniers km et ingérer les flux en direct dans leur réseau géré où la fibre dédiée n’est pas disponible. Une autre application est la contribution dite «de longue distance» à coût très faible. Une antenne de diffusion d’information dans un pays étranger peut facilement fournir des flux en direct au siège avec un coût d’exploitation très faible.

Pourquoi le Pro MPEG FEC n’est pas suffisant ? Comment un système de répétition automatique de requête (ARQ) peut aider ?

Le Pro MPEG FEC assure un certain niveau de qualité de service qui est généralement assez bon pour les réseaux gérés où la bande passante est prévisible. Par exemple, le module de FEC envoie des paquets supplémentaires afin de se prémunir de la perte de paquets de données. Le réseau internet n’est pas aussi prévisible qu’un réseau géré et un mécanisme de retransmission de paquets est la seule façon d’assurer une récupération complète en cas de perte de données. En effet, si un paquet est manquant au niveau du récepteur, celui-ci émet la requête à l’émetteur d’une nouvelle transmission de ce paquet.

Pourquoi un système de gestion du réseau est-il nécessaire ?

Un système de gestion du réseau peut être considéré comme la pierre angulaire du réseau car il permet de connaitre instantanément l’état précis des têtes de réseaux managées. Un système de gestion du réseau peut être utilisé à plusieurs fins, en fonction des besoins des opérateurs et de leurs contraintes opérationnelles:

  • La première fonction d’un système de gestion du réseau est le monitoring des équipements. Le système reçoit et agrège les informations provenant des appareils supervisés et les affiche en temps réel. L’information recueillie est ensuite disponible à partir de tout ordinateur connecté à distance disposant des droits d’accès appropriés. Le système de gestion du réseau prend également en charge les mécanismes de redondance. Grâce aux dispositifs automatisés, le système de gestion du réseau garantit la disponibilité des service.
  • Le système de gestion du réseau peut être également utilisé pour la gestion des services (création, mise à jour et suppression), pour la gestion du Service LevelAgreement (SLA), pour le reporting automatisé,voire aussi pour envoyer des notifications push à travers descourriels ou des SMS.
Est-il possible d’intégrer tout type de dispositif dans mon système de gestion du réseau ?

La réponse dépend du fabricant du système. En effet, il peut avoir développé son propre système pour gérer exclusivement sa gamme de produits, ou bien, deuxième cas de figure,son système est indépendant des fabricants de dispositifs. Dans le premier cas, le système de gestion du réseau peut en général intégrer des dispositifs externes afin de permettre le déploiement des grands projets, mais il est rare que ces équipements fabriqués par des concurrents fassent partie de la liste des équipements conformes. Dans le deuxième cas, le fabricant de systèmes de gestion du réseau bénéficie d’un large choix d’équipements conformes qu’il peut donc intégrer très facilement dans la plupart des cas, même quand il s’agit équipements de fabricants concurrents.

Comment se déroule la communication entre un système de gestion du réseau et les dispositifs ?

Traditionnellement, les systèmes de gestion du réseau ont été utilisés pour gérer des dispositifs accessibles à partir d’un réseau intranet. La plupart des protocoles internet HTTPS, SNMP, SOAP, FTP, SMTP, IMAP, SSH, TELNET, SSL ou TCPpeuvent être utilisés pour échanger des informations entre le système de gestion du réseau et les dispositifs. De l’autre côté, certains dispositifs qui n’intègrent pas le protocole Ethernet doivent être atteints d’une autre manière, à travers un contrôleur GPIO ou GPIB par exemple. Ce type d’équipement est traditionnellement géré par une passerelle qui convertit la communication du format d’origine à un format compatible Ethernet.

Quelle signification derrière NBI et SBI ?

NBI et SBI signifient respectivement« NorthBound interface » et « South Bound Interface », soit interface nord et interface sud. Ces acronymes sont utilisés quand on parle de l’interconnexion entre plusieurs systèmes de gestion du réseau. Dans un réseau de taille importante, des sous-ensembles peuvent être gérés par plusieurs systèmes de gestion du réseau. En général, chaque fabricant vient avec son propre système pour gérer son propre parc de dispositifs.Néanmoins, la gestion de l’ensemble du système de gestion doit être faite à partir d’un point d’accès unique situé au-dessus des autres : tous les systèmes de gestion du réseau dits « inférieurs »doivent être interconnectés et chapeautés par cette unique entité dite « supérieure ». Le NBI ou interface nord est ainsi une interface montante entre les systèmes de gestion des réseaux inférieurs et le système de gestion du réseau supérieur. Le SBI ou interface sud est une interface descendante entre le système de gestion du réseau supérieur et les systèmes de gestion des réseaux inférieurs.

Peut-on prendre en charge les équipements qui ne supportent pas les protocoles mentionnés ci –dessus ?

La réponse dépend des protocoles et interfaces supportés par le système de gestion du réseau et de la capacité du fabricant du système à inclure de nouveaux équipements dans la liste des équipements supportés. Fondamentalement, tout dispositif peut être géré par un système de gestion du réseau à partir du moment où une interface / un protocole d’adaptation est mis en œuvre.

Quels sont les principaux formats OTT ?

La diffusion de vidéo over-the-top peut toujours s’appuyer sur le MP4 pour le téléchargement qu’il soit entier ou progressif, ainsi que pour le streaming RTMP FLV. Cependant, pour faire face aux variations de bande passante des réseaux non managés, des formats de streaming adaptatif sont apparus : Apple HTTP Live Streaming, Microsoft Smooth Streaming, Adobe HTTP Dynamic Streaming, and MPEG Dynamic Adaptive Streaming over http. Ils comprennent habituellement les codecs vidéo H.264 et audio AAC.

Quels sont les principaux formats des sous-titres OTT ?

Bien que les sous-titres intégrés en dur dans la vidéo soient encore répandus dans la diffusion OTT, ils requièrent des mécanismes de duplication de flux qui augmentent les coûts de stockage et de diffusion.Pour éviter cela, il est possible de transcoder des sous-titres au formatCEA-608/708 CC ouDVB Teletext vers des formats large bande : DFXP/TTML pour SS, HDS et DASH et WebVTT pour iOS. Convertir des images comme les sous-titres DVB nécessiterait OCR, ce que SMPTE-TT propose d’éviter en définissant un mode de diffusion de l’image.

Comment réduire les coûts CDN ?

La réduction des coûts CDN peut être obtenue grâce à plusieurs optimisations. En premier lieu,une meilleure compression vidéo permet de gagner de l’espace en cache et sur les volumes diffusés. Cela améliore d’ailleurs l’expérience utilisateur en réduisant le taux de décrochage tout en préservant la qualité de la vidéo. Un packaging intelligent est également capital :les mêmes profils peuvent par exemple être référencés dans plusieurs DASH et SS manifestes, et même reconditionnés à la volée pour une livraison HLS, ce qui réduit considérablement l’espace de mémoire en cache, tout en améliorant le taux d’utilisation.

Le transcodage vidéo mis à part, quels autres facteurs de performances doivent être considérés ?

Les durées de téléchargement ascendant/descendant à partir et vers le cloud sont des facteurs à prendre en considération. Si la connectivité entre les locaux du site et les centres informatiques en nuage est limitée,la durée de transmission du contenu sera plus importante que la durée de transcodage elle-même, et peut devenir un goulot d’étranglement. Cependant,les durées de téléchargement ascendant/descendant vont diminuer avec la généralisation de la fibre optique.

Faut-il s’attendre à des performances du transcodage plus faibles, similaires ou meilleures en mode cloud en comparaison du mode classique de transcodage sur site ?

Du point de vue du transcodage vidéo pur, des performances similaires sont attendues. Il peut y avoir des différences en termes de temps de traitement (positives ou négatives) selon les processeurs utilisés dans les centres informatiques en mode cloud (Intel®, AMD®, autres),et si le logiciel de transcodage est optimisé pour fonctionner sur ces technologies.

Que signifient IaaS, PaaS et SaaS ?

IaaS signifie « infrastructure mise à disposition en tant que service » (en anglais, infrastructure as a service). Il s’agit d’un service donnant accès à un pool de ressources matérielles. PaaS signifie « plateforme mise à disposition en tant que service » (en anglais platform as a service). Il s’agit d’un service donnant accès à un pool de ressources d’un système d’exploitation. SaaS signifie« logiciel mis à disposition en tant que service » (en anglais software as a service). Il s’agit d’un service donnant accès à un logiciel depuis des serveurs distants plutôt que sur la machine de l’utilisateur.

Quelle est la différence entre le Cloud et la Virtualisation dans le traitement de la vidéo ?

La virtualisation signifie que le traitement est effectué dans un environnement qui n’est pas lié à une plateforme matérielle en particulier, mais à un pool de ressources. Ces ressources peuvent être présentes sur le site même ou sur un site distant. Dans le Cloud, le traitement est exécuté sur des ressources matérielles situées dans des centres informatiques distants.

Qu’est-ce que le DVB-S2x ?

Le DVB-S et le DVB-S2 sont les standards déployés pour la diffusion de contenu par satellite, à des fins de contribution comme de distribution. Le DVB-S2x correspond à l’extension de la norme satellite DVB-S2.
Cette extension du standard fournit des recommandations et des directives permettant d’améliorer l’efficacité des transmissions par satellite en définissant de nouveaux outils comme les faibles « roll-off », les nouvelles constellations et les nouveaux codes correcteurs associés.

Ai-je besoin de DVB-S2x pour mes applications ?

Cela dépend complètement de la nature de l’application. Pour la diffusion professionnelle par satellite, il ne fait aucun doute que la norme DVB-S2x offre plus d’options d’optimisation du transport de contenus par satellite. Elle permet d’optimiser les bouquets satellitaires avec d’avantage de chaînes. Pour la contribution professionnelle, les contraintes peuvent être un peu différentes étant donné que la bande passante disponible n’est pas constante et peut changer au fil du temps en fonction de la demande. En outre, lors de la première étape de la diffusion, les opérateurs satellite de contribution vont préférer une modulation plus fiable et plus efficace plutôt que de prendre le risque d’une modulation plus optimisée.

Quels sont les avantages du DVB-S2x ?

Le but de cette extension est d’optimiser les transmissions montantes et descendantes des liaisons satellites, et ce jusqu’à 25 % par rapport aux transmissions standards DVB-S2. En ajoutant, entre autre de nouveaux de schémas de modulation, on peut atteindre une meilleure efficacité et se rapprocher de la limite théorique de Shannon. On peut transporter plus de données dans la même bande passante, ce qui produit soit un gain de qualité soit l’amélioration de la densité.

Quelles sont les contraintes ?

Plus la modulation est complexe, plus il est difficile pour le récepteur de démoduler correctement. Une marge minimum de ratio signal-bruit C/N (ratio porteuse RF sur bruit) doit être maintenue afin d’assurer une réception correcte. Cela signifie que les schémas de constellation les plus complexes peuvent ne pas convenir pour tous les satellites. Des amplificateurs plus puissants et des antennes plus larges peuvent cependant pallier à ce problème. Pour surmonter ce challenge il est nécessaire d’utiliser des récepteurs satellites avec un niveau de sensibilité élevé et un traitement du bruit RF.

La législation est-elle différente d’un pays à l’autre ?

Oui, chaque pays peut appliquer des règles différentes pour la télévision de rattrapage. Ces règles modifient la manière dont le contenu est rendu disponible sur le portail de la télévision de rattrapage. Par exemple, aux Etats-Unis, la télévision de rattrapage doit rester identique au contenu original pendant 3 jours après sa diffusion en direct, et ce à des fins de mesure d’audience. Ce procédé est connu sous le nom de« fenêtre C3 ». Ces règles ne  sont pas appliquées dans les pays d’Europe qui en ont choisi d’autres pour la mesure de l’audience.

Qu’est-ce que la télévision de rattrapage ?

Le service de télévision de rattrapage,ou Catch-Up TV, permet de voir ou revoir des programmes de télévision après leur diffusion en direct. Le contenu est souvent mis à disposition pour une période limitée (7 jours en général). La télévision de rattrapage est également appelée« Replay » dans certaines régions ou certains pays.

Quelle est la différence entre la télévision de rattrapage et le contrôle du direct ?

Le contrôle du direct offre la possibilité aux téléspectateurs de revenir au début d’un programme alors qu’il est encore en cours de diffusion. La télévision de rattrapage permet de revoir un programme dont la diffusion est terminée.

Quels sont les éléments essentiels d’un service de la télévision de rattrapage ?

L’élément principal d’un service de télévision de rattrapage est la disponibilité du programme. Le contenu doit être disponible pour sa rediffusion sur le portail du service le plus rapidement possible après première diffusion. D’autres facteurs entrent en ligne de compte comme l’adaptation du contenu aux écrans de diffusion, sa monétisation, ainsi que sa qualité vidéo, éléments qui permettent d’améliorer l’expérience utilisateur final.

Quel codec pour la contribution ?

Les applications de contribution requièrent la meilleure qualité vidéo possible car le contenu peut être édité, post-traité ou archivé. De plus, l’archivage requiert l’utilisation de technologies normalisées qui garantissent la pérennité des contenus. Pour ces raisons, l’utilisation du codec  AVC/H.264 avec le profil High422 est probablement la meilleure solution. Il offre le support du format 4:2:2, rendu obligatoire en contribution lorsque le codec MPEG-2 était mis en œuvre, et une résolution de 10-bit par composante  qui permet de réduire les défauts de postérisation.

Quel codec pour la diffusion ?

Un des objectifs principaux des opérateurs de diffusion est de maximiser le nombre de chaines diffusées dans les limites des débits disponibles tout en garantissant la meilleure qualité possible. Un excellent compromis entre le débit et la qualité vidéo est actuellement obtenu avec le codec AVC/ H.264basé sur le profile High Profile. Ce codec vidéo est supporté par une large gamme de récepteurs et des équipements de compression sont disponibles auprès de nombreux fournisseurs. Cela en fait une solution abordable qui peut être déployée facilement.

Qu’est-ce que le HEVC ?

HEVC signifie High Efficiency Video Codec, ou codec vidéo haute efficacité. Il est le successeur du AVC/ H.264 et vise à réduire les débits par un facteur de deux pour une qualité vidéo équivalente. Il prend en charge tous les formats vidéo compressés en AVC/H.264, tels que la Définition Standard (576i) et la Haute Définition (720p et 1080i). Il offre également la possibilité de compresser le nouveau format Ultra Haute Définition (2160p), ce qui en fait le meilleur choix pour les applications UHDTV à venir. HEVC est devenu une norme internationale en 2013 et un nombre croissant de fournisseurs le soutiennent.

Qu’est-ce que le AVC-I et quels sont ses avantages par rapport aux autres codecs similaires ?

AVC-I est un schéma de compression qui utilise seulement des images I (Intra-codedpicture) par comparaison à AVC/H.264 long GOP qui peut utiliser desimages I, B (Bi-predictivepicture) et P (Predictedpicture). Les outils utilisés pour encoder des flux AVC-I sont choisis parmi ceux disponibles dans AVC/H.264 High 10 Intra Profile ou AVC/H.264 High 422 Intra Profile. Cela signifie que les flux AVC-I sont entièrement conformes au standard AVC/H.264 garantissant ainsi un niveau élevé d’interopérabilité, même avec des récepteurs qui ne sont pas conçus pour les applications Intra. AVC-I permet une réduction d’environ 10 % de débit par rapport à JPEG-2000 sans poser de problèmes d’interopérabilité.

Quel débit utiliser ?

Le débit à utiliser est très dépendant de la qualité attendue.  Voici  les débits H.264/AVC couramment utilisés dans l’industrie:

  • 1080i : 7Mbps
  • 1080p24: 5Mbps
  • 480i: 1.8Mbps

Nous observons cependant beaucoup de différences entre nos clients. Certains programmes sportifs 1080i sont en effet transmis en utilisant seulement 4Mbps, tandis que d’autres utilisent 12Mbps.

8-bit versus 10-bit ?

Le codec MPEG-2 était en mesure de compresser des images dont les composantes des pixels étaient codées uniquement  sur 8 bits. L’avènement de nouvelles technologies telles que AVC/H.264 et HEVC a ouvert la porte à une quantification plus fine autorisant des images dont les composantes des pixels sont codées sur 10 bits. Cette finesse de quantification améliorée offre trois avantages distincts :

  1.  Le codec peut traiter des pixels représentés dans le format utilisé par la production professionnelle. Cela évite toute conversion de format avant le codage et après décodage, ce qui est particulièrement utile dans les applications de contribution où la meilleure qualité vidéo possible est requise.
  2. L’utilisation d’une plus grande finesse de quantification permet d’effectuer des calculs plus précis dans l’encodeur. Cela permet d’améliorer l’efficacité de la compression. Le gain en débit binaire obtenu grâce à l’utilisation d’une quantification sur 10 bits est d’environ 5 %.
  3. L’œil humain est très sensible à certaines couleurs et une quantification trop grossière présente un effet indésirable appelé « banding». Ce défaut se produit généralement sur ​​les zones faiblement texturées tels que le bleu profond du ciel, le coucher de soleil, etc. L’utilisation de composantes quantifiées sur 10 bits tout au long de la chaîne de compression aide à éviter ce problème.
LOADING …