Suite de traitement vidéo et image
L'Intel FPGA vidéo et le traitement de l'image est une collection de fonctions de propriété intellectuelle (IP) FPGA Intel qui peut utiliser pour faciliter le développement de modèles de traitement vidéo et d'image personnalisés. Ces fonctions IP FPGA Intel sont adaptées à une large variété d'applications de traitement et d'affichage, telles que la diffusion de studios, la vidéo conférence, le réseau AV, l'imagerie médicale, la ville intelligente/détaillante et le grand public
Manuel d'utilisation de la suite de traitement vidéo et image >
Suite de traitement vidéo et image
La suite de traitement vidéo et vision est la nouvelle génération de suite d'IP de traitement de la vidéo, des images et de la vision. Les IP transportent la vidéo à l'aide du protocole de streaming vidéo Intel FPGA qui utilise le protocole standard de l'industrie AXI4-Stream. L'IP de conversion de protocole offre une interopérabilité avec la norme vidéo Avalon Streaming et l'IP de traitement de vidéos et d'images existante ou d'autres IP conformes au protocole de streaming vidéo Avalon.
La suite de traitement des images et de la vidéo comprend des noyaux qui vont de simples fonctions de base, telles que la conversion de l'espace couleur, à des fonctions sophistiquées de mise à l'échelle vidéo qui peuvent mettre en œuvre une mise à l'échelle polyphasée programmable.
- Tous les cœurs VIP utilisent une norme d'interface Avalon® Streaming (Avalon-ST) ouverte et à faible surcharge, ce qui permet de les connecter facilement.
- Vous pouvez utiliser le logiciel Intel® Quartus® Prime Lite ou Standard et le logiciel associé Platform Designer pour créer une chaîne de signaux de traitement vidéo personnalisée.
- Vous pouvez combiner les cœurs de traitement vidéo et d'image avec votre propre IP.
- Vous pouvez utiliser Platform Designer pour intégrer automatiquement des processeurs et des périphériques embarqués et générer une logique d'arbitrage.
- Capable de prendre en charge les vidéos 8K à 60 ips et au-delà.
Fonctionnalités
Fonctions IP FPGA Intel pour suite de traitement vidéo et image
Fonction IP FPGA Intel |
Descriptif |
---|---|
Implémente un filtre de réponse impulsionnelle finie (FIR) 3x3, 5x5 ou 7x7 sur un partager de données d'images pour lisser ou nets. |
|
Mixe et mélange de multiples flux d'images - utiles pour mettre en œuvre la overlay de texte et le mixage d'images à la image. |
|
Capture de paquets de données vidéo sans ajouter de retard supplémentaires et se connecter à l'IP du Système de trace pour collecter des données de trace vidéo. |
|
Supprime et répare les séquences non idéales et les cas d'erreur présents dans le flux de données entrant pour produire un flux de sortie conforme au modèle d'utilisation idéal implicite. |
|
Modifie le taux d'échantillonnage des données chroma pour les images images, par exemple de 4:2:2 à 4:4:4 ou 4:2:2 à 4:2:0. |
|
Offrez un moyen de vidéo de clier sur les flux vidéo et peut être configuré à l'heure de compilation ou à l'exécution. |
|
Les cœurs IP de l'interface vidéo verrouillée convergent les formats vidéo cadencés (tels que BT656, BT120 et DVI) en vidéo Avalon-ST en vidéo et vice versa. |
|
Modifie la façon dont des échantillons de plans de couleur sont transmis sur l'interface Avalon-ST. Cette fonction peut être utilisée pour fractionner et vidéo de partager et joindre, ce qui permet de contrôler le routage des échantillons de plans de couleur. |
|
Convertir des données d'images entre une variété d'espaces de couleurs différents tels que le RVB vers YCrCb. |
|
Bandes de protection configurables |
Le cœur IP de bande de garde configurable compare chaque plan de couleurs du partager vidéo de l'entrée avec des valeurs de garde supérieure et inférieure. |
Synchronise les modifications apportées au partager en temps réel entre deux fonctionnalités. |
|
Convertit les formats vidéo entrelacés en format vidéo progressif en utilisant un algorithme de désentrelacement adaptatif au mouvement. Prend également en charge des algorithmes « bob » et de tissage, des détection de périphérie à faible latence, une détection de cadence 3:2 et une faible latence. |
|
Trame vidéo de tampon dans une RAM. Ce noyau prend en charge le mise en charge double ou triple tampon avec une gamme d'options pour le chutes de trame et la repétition. |
|
Lecture de vidéo de mémoire externe et le sort sous forme de partager |
|
Permet de corriger les flux vidéo pour les propriétés physiques des appareils d'affichage. |
|
Convertit la vidéo progressive en vidéo entrelacée en sortant de moitié des lignes de trame progressive entrantes. |
|
La fonction IP FPGA Intel basée sur vidéo et code HDL utilise moins de zone que le détartreur de 1ᵉ génération dans la suite de traitement vidéo et image tout en offrant des performances plus élevées. La fonction Scaler II réduit encore les ressources requises avec une nouvelle prise en charge de la vitesse d'échantillonnage de données chroma 4:2:2. Les algorithmes linéaires et polyphase sont disponibles avec nouvelle fonctionnalité de l'algorithme adaptatif de périphérie afin de réduire les are tout en respectant le réalisme. |
|
Permettre à la vidéo de se mettre en place en temps réel. |
|
Générez un flux vidéo contenant des barres de couleur fixes à utiliser comme mire. |
|
Moniteurs capturés vidéo de moniteur et se connectent à la console Système hôte via JTAG ou USB pour l'affichage |
Se lancer
Exemples de conception et kits de développement
Les exemples de conception suivants sont disponibles pour vous permettre d'exécuter les kits de développement.
Nom du produit |
Appareils/kit de développement pris en charge |
Carte fille |
Conforme à la norme Platform Designer |
Fournisseur |
---|---|---|---|---|
✓ |
Intel® |
|||
Aucun |
✓ |
ALSE |
||
Démonstration de la suite de traitement vidéo et image sur VEEK |
Aucun |
✓ |
Terasic |
|
Exemple de conception vidéo et de traitement de l'image FPGA Intel |
✓ |
Intel® |
Didacticiels vidéo
Mesures de qualité IP
Basique |
|
---|---|
L'année IP a été publiée |
2009 |
Prise en charge de la dernière version du logiciel Intel® Quartus®. |
18.1 |
État |
Production |
Livrables |
|
Les livrables des clients comprennent les éléments suivants : Fichier de conception (code Target ou netlist) Modèle de simulation pour ModelSim*-Intel® FPGA Edition Contraintes de mise en page et/ou de mise en page Exemple de testbench ou de conception Documentation avec contrôle de révision Fichier readme |
Oui Oui Oui Oui Oui Non |
Tout livrable de clients supplémentaire fourni avec l'IP |
Aucun |
GUI de paramétrage permettant à l'utilisateur final de configurer l'IP |
Oui |
Le noyau IP est activé pour le support d'Intel FPGA IP Evaluation Mode. |
Oui |
Langage source |
Verilog |
Langage Testbench |
Verilog |
Pilotes logiciels fournis |
fichier sw.tcl |
Assistance du système d'exploitation (SE) du pilote |
— |
Mise en œuvre |
|
Interface utilisateur |
Vidéo cadencée (entrée vidéo cadencée et sortie vidéo cadencée), Avalon®-ST (tous les autres chemins de données). |
Métadonnées IP-XACT |
Non |
Vérification |
|
Simulateurs pris en charge |
ModelSim, VCS, Riviera-PRO, NCSim |
Matériel validé |
Arria® II GX/GZ, Arria® V, Intel® Arria® 10, Cyclone® IV ES/GX, Cyclone® V, Intel® Cyclone® 10, Intel® MAX® 10, Stratix® IV, Stratix® V |
Réalisation de tests de conformité aux normes industrielles |
Non |
Si oui, quel(s) test(s) ? |
— |
Si oui, sur quel(s) dispositif(s), FPGA Intel ? |
— |
Si oui, date exécutée |
— |
Si non, est-il planifié ? |
— |
Interopérabilité |
|
L'IP a passé des tests d'interopérabilité |
Oui |
Si oui, sur quel(s) dispositif(s), FPGA Intel ? |
Intel® Arria 10, Intel Cyclone 10 |
Rapports d'interopérabilité disponibles |
— |
Correcteur Gamma
Le correcteur Gamma est utilisé lorsque vous avez des valeurs de pixel sur des plages spécifiques, en fonction des informations sur l'écran qu'il va envoyer. Certains écrans ont une réponse non linéaire à la tension d'un signal vidéo et par conséquent, un remappage des valeurs de pixel est nécessaire pour corriger l'affichage. Le correcteur Gamma utilise un tableau de recherche d'interface Avalon® MM pour fournir un mappage de valeurs des pixels avec leurs valeurs modifiées.
Un exemple de correcteur Gamma est montré où une entrée Y'CbCr avec des valeurs de couleur allant de 0 à 255 se dépassant de 0 À 255 par le correcteur Gamma qui remaps ensuite les valeurs pour s'intégrer dans la plage 16 à 240, et est envoyé à une sortie vidéo vidéo verrouillée.
Filtre FIR 2D
Le noyau de propriété intellectuelle (IP) vidéo de filtre à réponse impulsionnelle finie (FIR) 2D est utilisé pour traiter les plans de couleur en série et faire passer les valeurs des pixels à travers un filtre FIR. Les coefficients sont entrée via une interface Avalon mémoire Mappé (Avalon-MM) qui peut être interfacée par processeur Nios® II ou par d'autres périphériques accédant à la conception Qsys, contenant vidéo le point de données
Un schéma de bloc utilisant le filtre FIR 2D est affiché avec une entrée vidéo verrouillée avec des plans de couleur RVB formaté sériellement afin de passer dans le filtre FIR. Une fois le filtrage, le séquenceur de plan de couleur est utilisé pour reformer les plans de couleur de trois plans en série à trois plans en parallèle. Avec trois plans de couleur en parallèle, vidéo la trame est prête à être transmis externally via le cœur de sortie vidéo vidéo verrouillé.
Miseur et mixeur Alpha Blending II
Les cœurs Alpha Blending Mixer et les cœurs de mixeur II permettent de mélanger jusqu'à 12 ou 4 couches d'image respectif et sont contrôlables par le fonctionnement via une interface Avalon-MM. En accédant à un processeur Nios II via l'interface Avalon-MM, vous pouvez contrôler dynamiquement l'emplacement de chaque couche affichée et l'ordre dans les couches sont overlaid (Mixer I uniquement). La fonctionnalité de mélange alpha du mixeur I prend en charge l'affichage des pixels transparents ou semi-transparents (Mixeur I uniquement).
Le cœur de mixeur II comprend un générateur de modèles de test intégré à utiliser comme couche de fond. Il s'agit d'un avantage supplémentaire car l'une des quatre entrées n'a pas besoin provenir d'un cœur de générateur de modèles de test. avantage de la mixeur II est de sa capacité à prendre en charge la vidéo 4K.
Un schéma de bloc intégré de la façon dont les cœurs de mixeur est utilisé est montré avec une entrée vidéo clocked fournissant le flux vidéo actif sur l'entrée 0, une couche de fond fourni par le générateur de séquence d'essai et un cœur de lecture de trame lisant les graphiques statique comme un logo de l'entreprise sur l'entrée 1. Ces flux sont combinés afin de fournir un affichage d'une image vidéo graphiques et un arrière-plan fourni par le générateur de modèles de test.
Il est recommandé que les entrées de mixeur sont alimentées directement depuis un tampon de trame sauf s'il est certain que les débits de trame respectifs des entrées et sorties ne se dénuent pas aux couches de frame ni aux données de masse.
Rééchantillonneur d'intensité
Le rééchantillonneur de chroma est utilisé pour modifier les formats chroma vidéo des formats de données vidéo. vidéo transmis dans l'espace de couleur Y'CbCr peut sous-traiter les composants de couleur Cb et Cr afin de sauvegarder la bande de bande de bande Le rééchantillonneur de chroma permet de passer entre 4:4, 4:2:2 et 4:2:0.
Un exemple montre une entrée vidéo verrouillée avec Y'CbCr dans un format chroma 4:2:2 mis à niveau par les Resampler de chroma à 4:4:4. Ce format vidéo mise à niveau est ensuite passé à un convertisseur d'espace de couleur qui convertit le format vidéo de Y'CbCr en RVB pour être envoyé au cœur de sortie vidéo verrouillé.
Clipper II
Le cœur de clip est utilisé lorsque vous souhaitez prendre des zones fixes de vidéo flux à passer à avant. Le cœur de pince à défiler peut être configuré lors de la compilation ou mise à jour via une interface Avalon-MM provenant d'un processeur Nios II ou d'un autre périphérique. Le Clipper a la possibilité de configurer la méthode de clipping en offsets de les périphériques ou par une zone rectangle fixée.
Un exemple montre deux instances de l'agrafe prenant des zones de pixel 400 x 400 à partir de leurs entrées vidéo respectives. Ces flux vidéo défilés sont ensuite combinés dans un cœur de mixeur avec graphiques et le générateur de modèles de test intégré comme arrière-plan. Le mixeur a la possibilité d'ajuster l'emplacement des entrées vidéo de la vidéo afin que vous puissiez positionner les deux flux vidéo découplés avec l'ajout de tampons de trame si nécessaire.
Cœurs d'entrée vidéo verrouillés (I et II)
Les cœurs d'entrée vidéo verrouillés et de sortie sont utilisés pour capturer et vidéo dans divers formats tels que BT656 et BT1120.
Les cœurs d'entrée vidéo verrouillés convertit des données vidéo entrantes en des données de paquets vidéo formatés Avalon-ST), ce qui permet de supprimer les fichiers horizontaux et verticaux entrants cœur vous permet de vidéo à une fréquence et de transmettre les données au reste de votre Système Qsys qui peuvent être exécutées à la même fréquence ou à une autre.
Un exemple d'entrée vidéo verrouillée est montré dans un bloc de mise à niveau pour une version de 1280 x 720 à 1920 x 1080, après qu'il est envoyé à un cœur de sortie vidéo verrouillé. Si les entrées et la sortie ont la même fréquence de trame, les FIFOs de l'entrée vidéo vidéo verrouillée et de la sortie vidéo verrouillée peuvent être créés pour que la conversion puisse avoir lieu sans tampon de trame.
Séquenceur de plans de couleur
Le séquenceur de plans de couleur est utilisé Il peut être utilisé pour convertir des plans de couleur de série à des plans de transmission parallèle (ou vers des visa), en des canaux vidéo de « duplicons » (tels que pouvant être requis pour un sous-système de moniteur vidéo secondaire) ou pour des canaux vidéo de séparation (tels que nécessaire pour séparer un plan alpha de trois plans de RVB avec un lecteur de trame).
Un exemple de séquenceur de plans de couleur est montré avec le cœur IP vidéo de filtre FIR 2D qui vidéo nécessite une entrée vidéo et une sortie avec les plans de couleur en série. Pour vidéo de transmettre à la sortie vidéo vidéo dans le format souhaité, les plans de couleur doivent être convertis en parallèle par le séquenceur de plans de de couleur.
Convertisseur d'espace de couleur (I et II)
Les cœurs de convertisseur d'espace de couleur (CSC et pour le convertisseur d'espace de couleur II) sont utilisés lorsque vous devez convertir entre RVB et les formats d'espace de couleur Y'CrCb. Selon vidéo d'entrée vidéo et de format de sortie, vous pouvez de les convertir entre entre de différents formats de couleur.
Un exemple d'espace de couleur est montré avec une vidéo de Resampler de chroma à mise en page de la vidéo Y'CrCb, puis il est transmis au convertisseur d'espace de couleur et convertis en format de couleur RVB à être envoyé à une sortie vidéo vidéo Y'CrCb
Synchroniseur de contrôle
Le Synchronizer de contrôle est utilisé en conjonction avec un contrôleur de maître Avalon-MM, tel que un processeur Nios II ou autre périphérique. Le Synchronizer de contrôle est utilisé pour synchroniser les modifications de configuration de configuration de l'exécution dans un ou vidéo IP de blocs vidéo en alignant avec les données vidéo à mesure de changement. Certains changements de configuration peuvent se passer en amont d'un cœur IP vidéo vidéo tandis que les images vidéo les passent encore dans le format précédent. Afin de rendre la transition transparente et d'éviter de s'éclater à l'écran, le Synchronizer de contrôle est utilisé pour aligner cœur de commutateur de configuration exactement le commutateur de configuration exactement exactement à mesure de les nouvelles données de trame vidéo de trame entrante
Un exemple de Synchronizer de contrôle est montré avec un processeur Nios II configurant un générateur de modèles de test pour modifier la taille de trame de 720p à 1080p. Le Control Synchronizer reçoit la notification du processeur Nios II que les données de trame vidéo vont bientôt changer, mais il s'abstient de reconfigurer la sortie vidéo synchronisée jusqu'à ce que les nouvelles trames passent par le Frame Buffer vers le Control Synchronizer. Le synchroniseur de contrôle lit les paquets de données de contrôle de la trame pour déterminer s'ils correspondent à la nouvelle configuration, puis il met à jour le noyau de sortie vidéo cadencé en fonction des nouveaux paramètres, ce qui rend le changement de résolution sur la sortie vidéo transparent.
Désentrelaceur (I et II) et Désentrelaceur de diffusion
Les cœurs de délacer (Désentrelaceur, Désentrelaceur, II et de Désentrelaceur) convert des images vidéo interlacés en images vidéo de vidéo de scan progressifs. Il existe plusieurs algorithmes de façon à démêler vidéo de la vidéo de la deinterlace selon la qualité souhaite, la zone logique utilisée et la bande de bande de bande mémoire externe disponible
Un exemple de façon dont le cœur de Désentrelaceur est utilisé est montré avec une entrée vidéo vidéo verrouillée recevant des images Désentrelaceur et de passer dans le Désentrelaceur, qui transforme avec un cœur mémoire externe et un cœur de mémoire de mémoire et de mémoire de tampon. Après désentrelacement de la vidéo dans un format de scan progressif, il est envoyé par un cœur de sortie vidéo verrouillé.
Tampon de trame (I et II)
Les cœurs de mémoire de mémoire tampon et mémoire tampon II sont utilisés pour mettre en charge des champs vidéo progressifs et interlaced et peuvent prendre en charge une mise en charge double ou triple tampon avec une gamme d'options pour les sauts et la répétition des images. Dans vidéo tels que désentrelacement vidéo et pour modifier le taux vidéo ou parfois le mélange de vidéo, un Tampon de trame est nécessaire.
Un exemple de façon dont le mémoire mémoire tampon est utilisé est montré avec un cas où un cœur d'entrée vidéo verrouillé reçoit une vidéo à 30 images FPS (fps) et doit les convertir en 60 images. Le cœur de mémoire tampon est utilisé pour mettre en charge plusieurs images et prend en first-person shooter les images répétant et le débit de trame est pouvant être convertis en 60 images et est ensuite transmis par un cœur de sortie vidéo verrouillé.
Lecteur de trame
Le cœur de lecteur de trame est utilisé pour vidéo lire des images vidéo stockées dans la mémoire externe et les sort sous un partager vidéo Avalon-ST. Les données sont stockées sous forme de valeurs vidéo vidéo brutes uniquement.
Un exemple est montré utilisant le lecteur de trame pour obtenir des graphiques logo de l'entreprise pour se superposer sur un vidéo partager vidéo et de fusionner les couches via un cœur de mixeur. De là, la vidéo fusionnée est envoyée à un cœur de sortie vidéo verrouillé. Le mixeur peut éventuellement être configuré pour inclure un canal alpha. Dans ce cas, le lecteur de trame peut être configuré pour lire trois plans de couleur et un plan alpha qui pourrait être « divisé » à l'aide d'un convertisseur d'espace de couleur (non montré) avant d'être entré dans le mixeur.
Scaler II
Le cœur Scaler II est utilisé pour mettre en charge vidéo une trame vidéo ou réduire la taille. Il prend en charge plusieurs algorithmes, notamment un voisin le plus proche, le bilinear, le bicubic, et le développement polyphase/Lanczos. La mémoire sur puce sert à mettre en mémoire tampon les lignes vidéo utilisées pour la mise à l'échelle, les rapports de mise à l'échelle plus élevés nécessitant davantage de stockage.
Un exemple du noyau Scaler II est montré prenant une taille d'image vidéo 720p à partir d'une entrée vidéo cadencée et la mettant à l'échelle en 1080p et l'envoyant à une sortie vidéo cadencée.
Commutateur (I et II)
Les cœurs de commutateur permettent aux utilisateurs de se connecter jusqu'à 1 flux vidéo d'entrée jusqu'à 1 flux vidéo de sortie. Le commutateur ne fusionne ni duplique vidéo les flux vidéo, mais vous permet de modifier le routage de l'port d'entrée à le port de sortie. Il n'est pas nécessaire de connecter tous les ports de sortie, sauf si vous souhaitez toujours surveiller vidéo ces flux vidéo. Le contrôle du commutateur est effectué via une interface Avalon-MM accessible par un processeur Nios II ou un autre périphérique mappé Avalon-MM.
Un exemple de commutateur est montré avec une entrée vidéo verrouillée et un générateur de modèles de test alimentant deux ports sur un commutateur. Le deuxième port de sortie de commutateur est non connecté, et le processeur Nios II contrôle qui des deux flux est envoyé The Port connecté à la sortie vidéo cadencée pour l'affichage.
Générateur de séquence de test II
Le noyau du générateur de motifs de test vous permet de générer un certain nombre d'images pour tester rapidement votre interface vidéo. Le noyau est configurable pour de nombreuses tailles d'images différentes, ainsi que pour les formats de couleur RGB et YCbCr.
Vous pouvez utiliser un cœur de générateur de motifs de test avec un noyau Output vidéo vidéo verrouillé pour obtenir rapidement l'interface vidéo de votre système. Avec vos spécifications vidéo souhaitées en main, la conception prend seulement des minutes pour valider rapidement l'interface est capable de générer une image sur un écran externe.
Moniteur vidéo Avalon-ST
Le moniteur vidéo Avalon-ST est cœur qui peut être introduit en série avec vidéo votre fichier de données vidéo qui lit les informations des paquets vidéo Avalon-ST et fournit des données de diagnostic au Système Avalon-ST Le moniteur vidéo est inséré là où vous souhaitez sonder le chemin de données vidéo pour obtenir des informations d'analyse et de statistiques. Lorsque vous combinez le cœur Système de suivi et connecté externement via un port de débogage tels que JTAG ou via un câble de téléchargement FPGA Intel, vous pouvez obtenir une plus grande visibilité sur le comportement du système vidéo du système. Vous pouvez Système Console comme plateforme virtuelle pour afficher ces informations.
Un exemple montre le moniteur vidéo Avalon-ST inséré avant et après un séquenceur de plans de couleur. Ces données sont utilisées pour vidéo des paquets vidéo provenant de la sortie vidéo vidéo de l'émission vidéo et du séquenceur de plans de couleur Le moniteur vidéo ne modifie pas les données vidéo lors de leur passage dans le noyau. Les moniteurs vidéo sont connectés au système de traçage, auquel on accède via JTAG dans ce cas.
Système de traçage
Le Système de suivi est utilisé vidéo pour accéder aux cœurs vidéo moniteur Avalon-ST insérés dans une conception pour des informations de diagnostic vidéo. Plusieurs noyaux de moniteurs vidéo peuvent être utilisés pour se connecter à un contrôleur du système Trace. Le Système de suivi se connecte à un hôte utilisant une interface de débogage généralement comme un connecteur JTAG ou une interface câble de téléchargement FPGA Intel® si disponible.
Un exemple montre le Système de suivi utilisé avec quelques cœurs vidéo moniteur Avalon-ST insérés avant et après un séquenceur de plans de couleur. Les moniteurs vidéo sont connectés au système de traçage, auquel on accède via JTAG dans ce cas.
Autres ressources
Trouvez des produits IP
Trouvez les cœurs de propriété intellectuelle pour FPGA Altera® qui répondent à vos besoins.
Assistance technique
Pour obtenir de l’assistance technique sur ce cœur IP, veuillez consulter les ressources d’assistance ou assistance Intel® Premier. Vous pouvez également rechercher des rubriques connexes sur cette fonction dans le centre de connaissances et les communautés.
Évaluation et achat de produits IP
Mode d'évaluation et informations d'achat concernant les cœurs de propriété intellectuelle pour FPGA Altera®.
IP Base Suite
Licences gratuites des cœurs IP pour FPGA Altera® avec une licence active pour le logiciel Quartus® Prime édition Standard ou Pro.
Exemples de modèles
Téléchargez des exemples et des modèles de conception pour dispositifs FPGA Altera®.
Contact commercial
Contactez le service commercial pour discuter de vos besoins en matière de conception et d'accélération de produits FPGA Altera®.