Accueil technologie Traitement vidéo

Traitement vidéo



Raisons du traitement

Le rapport d'aspect des écrans de télévision traditionnels (vert) et des écrans de cinéma courants. Le rapport d'aspect est utilisé pour décrire le rapport d'aspect des écrans vidéo aux éléments d'écran. Le rapport d'aspect de l'écran de télévision traditionnel est de 4 : 3 (1,33 : 1).

Bien que les pixels sur l'écran de l'ordinateur soient pour la plupart carrés, les pixels de la vidéo numérique ne le sont généralement pas. Par exemple, CCIR601, le format de stockage numérique utilisé pour les signaux PAL et NTSC, et son format d'écran large carré non égal

Formats communs

AVI --- Fichier AVI

AVIistheabbreviationofAudioVideoInterleaved.ItisadigitalaudioandvideofileformatthatconformstotheRIFFfilespecificationdevelopedbyMicrosoft.ItwasoriginallyusedintheMicrosoftVideoforWindows (VFW) environmentandhasbeendirectlysupportedbymostoperatingsystemssuchasWindows95 / 98andOS / 2.TheAVIformatallowsvideoandaudiotobeinterleavedandplayedsynchronously.Itsupports256colorsandRLEcompression, buttheAVIfiledoesnotlimitthecompressionstandard.Therefore, theAVIfileformatisonlyusedasastandardonthecontrolinterfaceandisnotcompatible.Itusesdifferentcompressionalgorithms.ThegeneratedAVIfilemustbeplayedoutwiththecorrespondingdecompressionalgorithm.CommonlyusedAVIplaybackdriversaremainlyVideo1inMicrosoftVideoforWindowsorWindows95 / 98, andIndeoVideofromIntel.AVIfilesaremainlyusedonmultimediadiscstosavevariousimageinformationsuchasmoviesandTVs.SometimestheyalsoappearontheInternetforuserstodownloadandappreciatethewonderfulfragmentsofnewmovies.

MPEG/MPG/DAT --- fichier MPEG

MPEGfileformatisaninternationalstandardformovingimagecompressionalgorithms, whichuseslossycompressionmethodstoreduceTheredundantinformationinthemovingimage, whileensuringadynamicrefreshrateof30framespersecond, hasbeensupportedbyalmostallcomputerplatforms.TheMPEGstandardincludesthreeparts: MPEGVideo, MPEGaudio, andMPEGsystem (vidéo, audiosynchronization) .TheMP3audiofileintroducedaboveisatypicalapplicationofMPEGaudio, andVideoCD (VCD), SuperVCD (SVCD), DVD (DigitalVersatileDisk) isanewtypeofconsumerelectronicproductsproducedbyfullyadoptingMPEGtechnology.TheMPEGcompressionstandardisdesignedformovingimages.Itsbasicmethodistocollectandsavethefirstframeofinformationinaunitoftime, andthenonlystorethepartsoftheremainingframesthathavechangedrelativetothefirstframe, soastoachievethepurposeofcompression.Twobasiccompressiontechnologiesareused: motioncompensationtechnology (codage prédictif et code d'interpolation) pour réaliser la compression temporelle et transformer le domaine (discretecosinetransform DCT) technologie de compression pour réaliser Le taux de compression moyen de MPEG est de 50:1, jusqu'à 200:1, l'efficacité de compression est très élevée, et la qualité des images et du son est également très bonne, et il existe un format standard unifié sur l'ordinateur, et la compatibilité est assez bonne.

ItisworthnotingherethatDIVX.DIVXvideoencodingtechnologycanbesaidtobeanewvideocompressionformatthatthreatensDVDs.SomepeoplesaythatitisaDVDkiller.ItismodifiedfromMicrosoftmpeg4v3andusesMPEG4compressionalgorithms.Atthesametime, itcanalsobesaidthatitwasdevelopedtobreakthevariousagreementsofASF.AndusingthisencodingtechnologyMPEG4, whichissaidtobeprohibitedfromexportbytheUnitedStates, only2CDROMsareneededtocompressaDVD.ThismeansthatreaderscangetthesamevideoqualityasitdoesnotneedtobuyanadditionalDVDdrive.Andtoplaythiskindofencoding, therequirementsforthemachinearenothigh.TheminimumCPUlimitisonlyrequiredtobeabove300MHZ, andintermsofthechoiceofCPUtype, whetheryourcoreisPII, CELERONorPIII, AMDK6 / 2, AMDK6III, athalon, EvenCYRIXx86canalsobeeatenandwon.Onagraphicscardwith64megabytesofmemoryandan8megabytesofvideomemory, DIVXcanplaysmoothly.

RA/RM/RMVB --- RealVideofile

RealVideofileisanewstreamingvideofileformatdevelopedbyRealNetworks.ItisincludedinRealMedia, theaudioandvideocompressionspecificationdevelopedbyRealNetworks, ismainlyusedtotransmitlivevideoimagesinreal-timeonalow-speedwideareanetwork.Differentcompressionratioscanbeusedaccordingtothenetworkdatatransmissionrate, soastorealizethereal-timetransmissionandtransmissionofimagedata.Real-timeplayback.Inadditiontobeingplayedintheformofordinaryvideofiles, RealVideocanalsocooperatewiththeRealServerservertoplayvideoimageswhiledownloadingduringthedatatransmissionprocess.Itdoesnothavetobedownloadedbeforebeingplayedlikemostvideofiles.ManywebsitesontheInternethaveusedRealVideotechnologyforlivebroadcastofmajorevents.

Le format de film RMVB est plus que les deux mots RMVB d'origine, ici V est l'abréviation de VBR (VariableBitRate-variablebitrate).

MOV/QT --- QuickTimefile

QuickTimeisanaudioandvideofileformatdevelopedbyAppleComputerCompanyforsavingaudioandvideoInformation, withadvancedvideoandaudiofunctions, issupportedbyallmainstreamcomputerplatformsincludingAppleMacOSandMicrosoftWindows95 / 98 / NT.TheQuickTimefileformatsupports25-bitcolor, supportsRLE, JPEGandotherleadingintegratedcompressiontechnologies, providesmorethan150videoeffects, andisequippedwithasounddevicethatprovidesmorethan200MIDIcompatibleaudioandequipment.ThenewversionofQuickTimefurtherexpandstheoriginalfunctionsandincludesthekeyfeaturesofInternet-basedapplications.Itcanprovidereal-timedigitalinformationflow, workflowandfileplaybackfunctionsthroughtheInternet.Inaddition, QuickTimealsoadoptsamethodcalledQuickTimeVR (simplifiedVirtualReality (VR) technologyisusedasQTVRtechnology.Throughtheinteractivecontrolofthemouseorkeyboard, theusercanobservea360-degreescenearoundaplace, orobserveanobjectfromanyangleinspace. QuickTime a été largement reconnu par l'industrie pour sa technologie multimédia de pointe et sa multiplateforme. Il a été largement reconnu par l'industrie et est devenu la norme de facto de l'industrie dans le domaine de la technologie des logiciels de médias numériques.

ASF/WMV ---- MICROSOFTstreamingmediafile

Microsoft'sAdvancedStreamingFormat (ASF, AdvancedStreamingFormat) isalsoaForthetechnicalstandardsofreal-timedisseminationofmultimediaontheInternet, MicrosofthasgreatambitionsandhopestoreplacetechnicalstandardssuchasQuickTimewithASF.ThemainadvantagesofASFinclude: localornetworkplayback, expandablemediatypes, componentdownloads, andscalability.ThemaincomponentsofASFapplicationareNetShowserverandNetShowplayer.AnindependentencodercompilesthemediainformationintoanASFstream, andthensendsittotheNetShowserver, andthentheNetShowserversendstheASFstreamtoallNetShowplayersonthenetwork, soastorealizeunicastormulticast.Thisissimilartothereal-timebroadcastoftheRealsystem.WMVisalsoatechnicalstandardforreal-timedisseminationofmultimediaontheInternetindependentoftheencodingmethod.MicrosofthopestouseittoreplacetechnicalstandardssuchasQuickTimeandfileextensionssuchasWAVandAVI.Themainadvantagesofwmvinclude: localornetworkplayback, scalablemediatypes, téléchargements de composants, types de supports évolutifs, hiérarchisation des flux, multi-langue soutien à l'âge, indépendance de l'environnement, relations riches entre les flux et évolutivité.

AVI(nAVI)

Ifyoufindthattheoriginalplayersuddenlycannotopenavifilesinthisformat, thenyouhavetoconsiderDidyouencounternAVI? NAVIistheabbreviationofnewAVI, anewvideoformatdevelopedbyanundergroundorganizationcalledShadowRealm.ItisamodificationoftheMicrosoftASFcompressionalgorithm (nottheAVIasimagined) .Thevideoformatpursuesnothingmorethancompressionrateandimagequality.Therefore, inpursuitofthisgoal, NAVIhasimprovedsomeoftheshortcomingsoftheoriginalASFformat., SothatNAVIcanhaveahigherframerate.Ofcourse, thisisattheexpenseofthevideostreamingcharacteristicsofASF.Inanutshell, NAVIisanimprovedASFformatthatremovesthecharacteristicsofthevideostream, andcanalsoberegardedasanon-networkversionofASF.

ISO,BIN,IMG,TAO,DAO,CIF,FCD-mirrorfileformat

Le fichier miroir est en fait un fichier indépendant, et d'autres fichiers différents, sont créés par plusieurs fichiers à l'aide d'un logiciel de gravure ou d'un outil de création de fichiers d'images.

Le champ d'application des fichiers images est relativement large et l'application la plus courante est la sauvegarde de données (telles que les disquettes et les CD).

Vous pouvez utiliser WinISO ou IsoBuster pour ouvrir le fichier image.

Données de traitement communes

Videoprocessingrequirestheuseoflargeamountsofdataastestandtrainingsets, suchas: VisualObjectClassesChallenge2011 (VOC2011) (PASCALVisualObjectClassificationChallenge2011), BEHAVE-foules (crowdbehaviorvideodataset), trafficvideodatabase (datafrom2010to2011), IRMarksvideodataset (UniversityofCalifornia, SanDiego, facialmotionvideodatabase), TheHonda / UCSDVideoDatabase (UniversityofCalifornia) SanDiegoUniversity'sFaceTrackingVideoDatabase), VIRATVideoDataset (USDepartmentofDefenseAdvancedResearchProjectsAgencyVIRATvideodatabase), etc. .

Traitement d'informations

Accordingtotheprincipleofthreeprimarycolors, inthevideofield, themixtureofR, G, andBthreecolorsindifferentproportionsisusedtoexpressacolorfulworld.SincetheoriginalsignalinthecameraandthefinalsignalintheTV, moniteur, andcomputermonitorareallRGBsignals, usingRGBsignalsasthetransmissionandrecordingmethodofvideosignalswillundoubtedlyhaveextremelyhighsignalquality.Butthisisnotthecaseinpracticalapplications, because.Ontheonehand, thiswillgreatlyincreasethevideobandwidthandincreasethecostofrelatedequipment; ontheotherhand, itisalsoincompatiblewiththecurrentblack-et-whiteTV.

Signal vidéo

YUVcomponentsignal

Selon l'équation de luminosité, convertissez RVB pour générer un signal de luminosité Y et deux signaux de différence de couleur U(BY), V((RY), le signal du composant YUV est obtenu.

Caractéristiquesducomposant YUV

Parce que YetUVsontséparés,uneimageavec seulementYsansUetVisnoiretblancgris.

Les caractéristiques de l'œil humain peuvent être utilisées pour réduire la capacité de stockage requise pour les images numériques en couleur. La capacité de l'œil humain à distinguer les détails de couleur est bien plus comparable. La résolution des détails de luminosité est faible.

Signal Y/C

Les signaux U et V du signal YUV sont en outre synthétisés en un signal de chrominance pour obtenir le signal Y/C. Étant donné que le signal de chrominance est traité par fréquence, cette méthode d'enregistrement est également appelée méthode de conversion de couleur.

Signal composite

Le signal Y et le signal C dans le signal Y/C sont en outre synthétisés pour obtenir une vidéo composite, qui est un signal TV en couleur.

Échantillonnage

Quantification

Compression

Compression avec perte/compression sans perte

Compression matérielle/compression logicielle

Ratio de compression

Système d'affichage informatique

Technologie associée

Technologie du matériel

Direction du développement du matériel de traitement vidéo

Combinée à la technologie de communication réseau, une carte de capture vidéo et une carte de communication réseau forment une visioconférence multimédia, un visiophone et une messagerie vidéo, un terminal de communication multimédia, etc.

Combiné avec la technologie de production cinématographique et télévisuelle pour former un système de montage non linéaire pour la production cinématographique et télévisuelle qui intègre la compression/décompression, la sortie composite et les effets spéciaux.

②VideocaptureCard

Videooutputcard (TVencodingcard)

④MPEG1compression/decompressioncard

TVreceptivecard

⑥Carte d'édition non linéaire

⑦MPEG2compression/decompressioncard

Qualité vidéo

La qualité vidéo (ou traduit par "qualité d'image", "qualité d'image") peut utiliser le rapport signal/bruit de crête objectif (PSNR) pour quantifier, ou utiliser l'observation d'experts pour évaluer la qualité vidéo subjective.

●Pour un système de traitement vidéo (par exemple, un système de transmission par algorithme de compression), une évaluation subjective atypique de la qualité d'image comprend généralement les étapes suivantes :

●Sélectionnez un ensemble de clips vidéo non traités (appelés SRC) comme référence pour la comparaison.

p>

●Sélectionnez Sélectionnez la valeur de consigne du système de traitement ou de transmission (appelée HRC).

●Déterminer la méthode scientifique pour présenter la vidéo traitée à l'évaluateur et recueillir son évaluation.

●Invitez un nombre suffisant d'évaluateurs, généralement pas moins de 15 personnes.

●Mettre en œuvre l'évaluation.

●Calculez les scores attribués par chaque évaluateur à chaque groupe de différents HRC (généralement en moyenne).

De nombreuses méthodes d'évaluation subjective de la qualité d'image sont décrites dans la recommandation ITU-TR BT.500. L'une des méthodes standardisées est DSIS (DoubleStimulus ImpairmentScale).

Technologie de vidéocompression

Technologie de compression vidéo (uniquement applicable aux signaux numériques). Étant donné que les systèmes de signaux numériques sont largement utilisés, les gens ont développé de nombreuses méthodes pour compresser les flux vidéo. Étant donné que les données vidéo contiennent une redondance spatiale et temporelle, rendre les flux vidéo non compressés est assez mauvais du point de vue de l'efficacité de la transmission.

Engénéral, spatialredundancycanbereducedby "onlyrecordingthedifferencebetweenonepartofasingleframeandanotherpart"; thistechniqueiscalledintra-framecompression (intraframecompression) .Anditiscloselyrelatedtoimagecompression.Thetemporalredundancycanbereducedby "onlyrecordingthedifferencebetweentwoframesofdifferentpictures"; thistechniqueiscalledinterframecompressionandincludesmotioncompensationandothertechniques.Atpresent, themostcommonlyusedvideocompressiontechnologiesareMPEG-2, whichisusedinDVDandsatelliteliveTV, andMPEG-4, whichiscommonlyusedinInternettransmission.

Bittransfert

Bittransferrate (onlyapplicabletodigitalsignals), bittransferrate (alsotranslatedasbitrateorbitrateorbitrate) isoneAwaytoexpresstheamountofinformationcontainedinavideostream.Itsunitofquantityisbit / s (thenumberofbitstransmittedpersecond, alsowrittenasbps) orMbit / s (thenumberofmillionbitstransmittedpersecond, alsowrittenasMbps) .Ahigherbittransferratewillaccommodatehighervideoquality.Forexample, thepicturequalityofDVDformatvideo (typicalbittransferrateis5Mbps) ishigherthanVCDformatvideo (typicalbittransferrateis1Mbps) .TheHDTVformathasahigher (approximately20Mbps) bittransferrate, andthereforehasahigherpicturequalitythanDVD.

Variablebitrate (VBRinabbreviation) isameansofpursuingtheimprovementofvideoqualityandreducingthebittransmissionrateatthesametime.VBR-encodedvideowillautomaticallyrecordimagesatahigherrateduringlargedynamicorcomplexpictureperiods, butwillreducetherateduringstaticorsimplepictureperiods.Inthisway, thetransmissionratecanbereducedasmuchaspossiblewhileensuringaconstantpicturequality.Butforvideostreamsthathaveafixedtransmissionbandwidth, requireimmediatetransmissionandnotemporarystoragemeans, aconstantbitrate (CBR) ismoresuitablethanVBR.Videoconferencesystemisanexample.

Impacter

La plupart des produits vidéo grand public se distinguent par les technologies de traitement vidéo et les algorithmes utilisés pendant et après la décompression.

FilmsetTV

Moviesareusuallyrecordedatarateof24framespersecond.TowatchonTV, youneedtoconvertthevideotohowmanyfieldspersecond.Thisprocessiscalledtelecine), ouX:. Yfolding.ConvertingmotionpicturefilmtoNTSCtelevisionsystemiscalled3: 2folding, whichconverts24framespersecondtoapproximately60fieldspersecond.Thisconversionprocessconsistsoftwosteps: Tout d'abord, therateofthemovieisreducedby1% .Secondly, the4framesinthemovieareconvertedinto10-fieldNTSCformat.ThisconversionprocessisrealizedbyusingtheinterleavingnatureofNTSCformattoextend4framesto5frames.AsaTVmovie, 3: 2 (OR2: 3actually) meansthatthefirstframeofthemoviedisplays2fields, thenthesecondframedisplays3fields, andthethirdframedisplays2fields ,et bientôt.Au cours de tout processus de conversionfilm-to-TV,il y aura une certaine distorsion appelée "gigue". Afin d'éliminer cette gigue et de régénérer le signal d'origine, il est nécessaire d'adopter une méthode inverse de film et de télévision (reverse3:2folding)pourreconvertirlesignalconvertià24imagesparseconde.

Désentrelacement

Entrelacés InordertotakefulladvantageofHDTVsandotherdisplaysthatdisplaynon (orprogressivescan) vidéo, thevideobroadcaststreammustbeconvertedfrominterlacedtonon entrelacé, Thisconversionprocessiscalledde-interleaving.Itisnecessarytoperformde-interleavingwhenconvertingcompositesignalssuchasNTSCintocomponentsignalssuchasRGBorYCbCr.Thereareusuallyseveraldifferentmethodsofde-interleavingalgorithms (withdifferentnames), includingfilmmode, videomode, motioncompensation, scenecombining (entrelacer, le mélange, selectivemixing) andfieldexpansion (halfsize, deux wiretechnology), etc..Chaque méthode a ses propres avantages et inconvénients, et la meilleure méthode d'entrelacement est de combiner ces méthodes.

Mise à l'échelle

Scalingisalmostnecessaryforeveryvideodevicethatsupportsmultipleresolutions.ThisisbecausethesignalmustbeconvertedfromoneresolutiontoasuitableAnotherresolutionoftheterminaldevice.Whenusingde désentrelacement, thecomponentsignalscannotbescaledunlesstheyareconvertedtocompositesignalsfirst.Thereareseveralscalingschemes, images, andpixelcopyingistoenlargetheimagebycopyingpixels.Asyoucanimagine, thismethodcreatesmarginandintroducesdistortion.Linearinterpolationisnotmuchbetter, itcanalsocausedistortion, especiallyforhigh-frequencycomponents.Theeffectofanti-aliasingre-samplingisthemostidealbecauseitcanensurethatthefrequencycomponentsarecorrectlycalibrated.Thereareseveralanti-aliasingmethods, andthebestmethodneedstobedeterminedaccordingtotheterminaldevice.

Déblocage et déblocage

Videoframesareusuallydividedintogroupsof16samplesx16lines.Suchgroupsarealsocalledmacroblocks.ThesemacroblocksareusedforMotionestimationandmotionvector.Whenmacroblocksaredecompressedandreproduced, theedgesofadjacentmacroblocksmaynotparticularlymatch, becausenaturalerrorsoccurwhenreconstructingthedamagedcodec.Whentheedgesarenotwellmatched, theboundariesofthemacroblocksareexposed.Inordertoeliminatetheseundesirableconsequences, alow-passdeblockingfiltermustbeusedtomixandeliminatethesedistortions.H.26? Containsadeblockingfilterappliedtothemacroblocklevel, whichmustbeconstructedseparatelyforothercodecs.Whentheencoderlosestoomuchinformationduringthemacroblockquantizationprocess, theimageedgeswillbedistorted.Thistypeoferroriscalledringing.Justlikedeblocking, deringingrequiresanadaptivelow-passfiniteimpulseresponsefiltertomasktheringingeffect.

Autres technologies

Theremaybemanyreasonsforerrorsduringbroadcastorplayback.Forexample, DVDsareoftenscratchedandcannotbecorrected.Errorconcealmentmethodscanoftenmakeupforuncorrectableerrors.Techniquessuchasinterpolationorreplacingcorrupteddatawithpreviousandsubsequentframedatacanbeusedtohidethistypeoferror.Theedgeenhancementmethodusesaprocessfiltertoincreasethecontrastofthebrighteranddarkerpixelsonbothsidesoftheedgetoimprovethesharpnessoftheimage.Thisprocessingtechnologyismoreusefulforlow-enddisplays, anditisbetterforlong-distanceviewing.Becausetheedgeenhancementmethodreducesthequalityoftheimage, itisgenerallynotusedforhigh-enddisplays.Transcodingisthedirectconversionfromonedigitalsignalformattoanotherformat, whichinvolvesselectinganencodedvideoformat, decodingordecompressingitintotheoriginalformat, justlikereplayingit (Figure1) .Ensuite, thevideostreamiscompressedorencodedintoanewdesiredformat.Mostcodecsarelossy, andtheerrorsanddistortionscausedwillaccumulate, eventuallyleadingtocontinuousdeteriorationofimagequality « . Transcodingwillbecomeoneofthemostchallengingfunctionsofvideosystemsinthenextfewyears, "saidJeremiahGolston, ChiefTechnologyOfficerofTI'sStreamingMediaDivision." Whenconvertingbetweenavarietyofdifferentvideocodecformats, bitratesandresolutions, haute qualityvideosignalsmustbemaintainedtomeettheneedsofhomemediadevicestosharecontentwitheachother. "Golstonadded." InthecaseofverytightsystembudgetssuchasI / Obandwidthandoverallcost, itisnecessarytoinnovateinalgorithmsandarchitecturestoachievethesegoals.Real-timeHDtranscodingsolutionsbasedonDSPtechnologycanprovidebothhighperformanceandflexibility, Soastomeetthesedemandingrequirements « . Dedicatedcodecandvideoprocessingchip Ifspeedisthepriority, adedicatedchipwithcodecandvideoprocessingfunctionswillbethefirstchoice.Table1listsaseriesofexistingchipsthathavecodecandimageprocessingfunctions.Thetabledoesnotincludeallrelatedproducts, andmostofthecompanieslistedprovidemorethanoneoraseriesofvideoprocessingproducts.High-definitionTVismorethanjustdigitalprocessing.Thesinglefixeddisplayresolutionofaflat-panelHDTVmustmatchmultipledisplaystandards, sothereisadesignproblemthatCRTTVshavenotexperienced.TherearemanywaystosolvethisproblemforthegraphicscardinthePC, buttheHDTVreceivermustItisfasterandbetterthanaPCgraphicscard, andthechallengeisevenmoreseverewhenHDTVmusthandletraditionalvideofromVHS / DVDplayers.However, thisproblemismainlyforhigh-endsystems.Mass-marketHDdevicesonlyneedtodealwiththecableinputproblem.InordertoobtainanexternalSDdatasource, consumersmustpayforadditionalconnectors.Analogfront-end (AFE) chipscancompletethisprocessing , mais ils sont beaucoup plus compliqués que les AFE bien connus, whi functionandAnalogDevices chareonlyADCsignalconditioners.Somesimulationcompaniesprovideproductsthatmanagetosolvetheseproblems.Intersil'sautomaticblacklevelcompensation (ABLC) (ADI) videonoiseshapingtechnologysolvethesechallengesinauniqueway.Theanalogvideosignalcontainsahorizontalandverticalretraceinterval.Duringthisinterval, theelectronbeamoftheCRThastoberedirectedtothebeginningofanewlineorfield, butbecauseflat-panelTVslackverticalorhorizontalretrace, theyneedonepixel.clock.Theanalogvideosignaldoesnotprovideapixelclock, soaphase-lockedloop (PLL) isrequiredtogeneratetheclock.HDresolutionrequiresalow-jitterPLL, buttherangeallowedbytheHDstandardposesadesignchallengeforanalogPLLs, becausetheloopfilterisdifficulttooptimizewhenthehorizontalcomponentfrequencyis10-150kHz. Le décalage est un autre défi inhérent à l'AFE. Le chemin vidéo AFE comprend généralement un circuit de pince de restauration DC, une correction du décalage et du gain, et un circuit de conversion analogique-numérique. eviceswillalsogenerateoffsets.Theoffsetisrandomandwillvaryfromdevicetodevice.Theyusuallyhavealargetemperaturecoefficient, sotheoffsetwilldriftwhenthedisplayheatsup.Herearetheissuesrelatedtooffset.Inthecomponentvideosignal, Ysignal (luminance, graylevelinformation) andPb, Prsignal (chroma, colorinformation) aresentoutthroughthreeindependentchannels.TheYsignalisunipolar, andtheYoffsetontheYchannelwillaffectthebrightness.ThePbandPrsignalsarebipolar, andtheyformanorthogonalcolorspace.TherandomoffsetofPbandPrwillmovethecenterofthespacefrom0volts, whichwilladdcolortotheimagethatshouldbegray, therebymovingtheentirecolorspace, resultinginincorrectcolordisplay.Inthepast, displaymanufacturersdidonlyonecalibrationordidnotdealwiththisproblematallduringdisplayproducttesting, andthedeliveredequipmenthadlargeblacklevelsandcolorvariations. Il en résulte que l'utilisateur doit ajuster manuellement la valeur de réglage.

Processeur

Processeur vidéo grand public

Pour créer un produit vidéonumérique réussi, vous devez choisir le bon processeur. Bien entendu, ce n'est pas le cas.

Ce qui complique le problème, c'est que le domaine de la vidéo numérique est en rapide évolution, et que les normes évoluent et changent constamment.

Lors du choix d'un processeur, il est inévitable de faire des compromis, mais la clé est de savoir choisir un processeur pour que le succès du produit ne soit pas compromis.

Prend ce dont tu as besoin

Parce qu'il y a beaucoup de processeurs parmi lesquels choisir, il est en fait impossible de les lire tous — vous ne pouvez même pas vous renseigner sur les principales catégories en détail, vous pouvez donc utiliser la méthode de notation : utilisez les critères de sélection les plus importants pour éliminer d'abord les candidats inadaptés.

Les critères couramment utilisés pour la sélection primaire comprennent :

*Vitesse.Les tâches vidéonumériques, comme de nombreux autres types de tâches de traitement du signal, nécessitent que le processeur entreprenne des tâches informatiques lourdes.

*Prix.Bien que le prix de la puce soit important, le coût par canal ou le coût global du système peut être plus important.

*Efficacité énergétique. Dans la plupart des cas, l'évaluation de l'efficacité énergétique est plus significative que la consommation d'énergie, car la consommation d'énergie détermine la durée de vie de la batterie.

*Flexibilité.Certains types de processeurs sont plus flexibles que d'autres types de processeurs, ils sont susceptibles de modifier les caractéristiques du produit à l'avenir ou de permettre des mises à niveau sur le terrain, telles que l'ajout de la prise en charge de nouveaux algorithmes de compression. Cependant, en général, plus le processeur est flexible, moins son coût et son efficacité énergétique sont faibles.

*La qualité des outils de développement. Que le processeur dispose des outils nécessaires pour prendre en charge le développement d'applications de traitement du signal (ou, en outre, d'applications vidéo) peut avoir un impact significatif sur le temps de développement et, par conséquent, le délai de mise sur le marché.

*Compatibilité avec les modèles de processeurs antérieurs. Ceci est généralement important si vous vous attendez à utiliser des logiciels utilisés dans des produits antérieurs.

*Feuille de route des fournisseurs. La feuille de route des produits du fournisseur correspond-elle très bien à votre plan de développement de produits de suivi ? Le processeur sera-t-il pris en charge ou mis à niveau pendant la durée de vie de votre produit ?

* Vendus sous forme de puces ou de noyaux sous licence. Certains processeurs sont vendus sous forme de puces prêtes à l'emploi ; certains sont vendus en tant que propriété intellectuelle sous licence, souvent appelés cœurs sous licence, utilisés pour fabriquer des puces personnalisées.

Avantages et inconvénients de divers processeurs

Concentrez-vous sur les six types de processeurs couramment utilisés dans la vidéo numérique : moteurs à fonction fixe, produits standard spécifiques aux applications (ASSP), processeur multimédia, DSP, processeur RISC intégré et FPGA.

Parlons d'abord du moteur à fonction fixe. Il utilise une structure de processeur câblé pour une efficacité maximale ; ils n'utilisent pas de flux d'instructions et ne peuvent pas être programmés.

L'utilisation d'un moteur à fonction fixe peut simplifier la conception et les tests du système. Étant donné que le moteur à fonction fixe n'est pas programmable, les développeurs de produits n'ont pas besoin d'apprendre les outils de programmation ni d'intégrer plusieurs modules logiciels.

Les moteurs à fonction fixe sont généralement fournis sous la forme d'une propriété intellectuelle (IP) sous licence pour faciliter l'intégration dans les puces personnalisées.

Par exemple, le décodeur vidéo 5150MPEG-4 de Hantro, qui est un exemple de moteur à fonction fixe vendu sous forme d'IP.

Le principal inconvénient du matériel à fonction fixe est son manque de flexibilité. Parce qu'il n'est pas programmable, les développeurs de produits peuvent facilement modifier le matériel à fonction fixe pour prendre en charge de nouvelles normes ou différentes fonctions.

Par conséquent, les moteurs à fonction fixe sont souvent utilisés dans le cadre de produits standards dédiés.

Les produits standard dédiés (ASSP) sont des puces dédiées à haute intégration. Il peut être comparé à un circuit intégré spécifique à une application (ASIC).

Par exemple, le Vaddis5R de Zoran est une puce hautement spécialisée pour le traitement audio et vidéo dans les graveurs de DVD.

Bien que Vaddis5R contienne deux processeurs RISC, il utilise des accélérateurs matériels à fonction fixe lors de l'exécution des tâches les plus intensives en calcul, telles que le décodage vidéo MPEG-2 et la conversion de l'espace colorimétrique.

La flexibilité limitée signifie que lorsque les concepteurs de systèmes conçoivent des produits, ils peuvent facilement les rendre similaires à d'autres produits en utilisant le même ASSP.

Il existe également un ASSP qui repose principalement sur des processeurs programmables pour effectuer des tâches vidéo lourdes, et sacrifie l'efficacité énergétique et la rentabilité pour la flexibilité.

Le processeur multimédia est situé entre l'ASSP et le processeur de signal numérique (DSP) en termes de spécialisation/flexibilité.

PhilipsPNX1500estunprocesseurmédia.Commeunprocesseurmédiatypique,lePNX1500estbasésuruncœurdeprocesseurpuissant,hautementparallèle,trèsefficace lors de l'exécution de tâches de traitementvidéo.PNX1500contientégalementplusieurs accélérateursmatérielsàfonctionfixeetpériphériquesdédiés,quisontégalementlescaractéristiquesprincipalesd'unprocesseur.complexe.

Semblable au Vaddis5R de Zoran, le PNX1500 est très adapté au décodage MPEG-2.

Becausethemediaprocessorusesmultipledifferentprocessors,comparedwithotherprogrammableprocessors,itcausesgreatdifficultiesinsoftwaredevelopment.Forexample,inordertoperformaspecificvideotask,itisgenerallynecessarytoprogramtwoormoreprocessingunitsandcoordinatethem.Tohelpmakeupforthisshortcoming,mediaprocessorvendorsoftenprovideoptimizedsoftwarecomponentlibraries.

MediaprocessorvendorsusuallyemphasizetheuseofCorC++whendevelopingsoftware,anddonotrecommendorsupportassemblylanguage.Thereasonforemphasizingtheuseofhigh-levellanguagetodevelopsoftwareistopreventprogrammersfromhavingtofacemanycomplexissuesinprocessorarchitecture.Butthedownsideisthattheprogrammermustrelyonthecompilertogeneratevalidcode,whichisnotalwaysrealistic.Developersmayneedtoinvestalotofefforttomanuallyadjusttheirhigh-levellanguagecodetogetthebestperformance.

Digitalsignalprocessor(DSP)isdesignedforaseriesofsignalprocessingapplications.Comparedwiththemediaprocessor,thespecificationsadoptedbytheDSParelessfocusedonvideoprocessing,andtheparallelismislow.Inordertomakeupfortheweaknessoflowparallelism,inagivenapplication,theinstructionexecutionspeedoftheDSPmustusuallybehigherthanthatofthemediaprocessor.Highercommandspeedmaycomplicatesystemdesignandincreaseenergyconsumption.Ontheotherhand,comparedwiththeembeddedRISCprocessor(describedbelow),theDSPrequiresalowerclockspeedwhenprocessingvideotasks.ThekeyadvantageofDSPliesinitsflexibilityandpowerfulapplicationdevelopmenttools.

Cet article provient du réseau, ne représente pas la position de cette station. Veuillez indiquer l'origine de la réimpression
HAUT