Notas
Notas
Notas
Nimbra tiene opción de emplear RITS, un protocolo de transmisión de vídeo sobre líneas no
gestionadas, en cuyo fórum participa AWS Elementals.
He recibido consultas referente al tema de Zixi, y voy a intentar intentar explicar un poco su
funcionamiento.Quiero dejar claro que no soy ningún experto en Zixi, por tanto, que este
articulo sirva simplemente de orientación y si despierta vuestro interés, lo mejor es
contactar con Zixi donde os informaran con detalle www.zixi.com
Zixi es un protocolo*, para streaming o como queráis llamarlo , este protocolo es de pago y
se ha de pagar una licencia bien por uso de datos "Broadcaster"o bien una licencia por
equipo "Zixi Zystem".
*Lo defino como protocolo porque por mis limitaciones técnicas no se definirlo de otra forma,
seguro que más de uno dirá , esto no es un protocolo por esto o otro......vale, vale seguro que sabe
más que yo, pero creo llamándolo protocolo todos me entienden, y si no, vuestros comentarios
siempre serán bien recibidos y así aprendemos todos.
Con Zixi podemos trabajar de varias formas, una es con el que Zixi denomina
como Broadcaster. Broadcaster es el receptor-servidor de la señal, este se encuentra por
lo general en la nube y es donde dirigimos la señal de origen codificada con
protocolo* Zixi" desde "Zixi Freeder" y que luego el Broadcaster reenvía de nuevo a
los Zixi Receiver que entregarán el vídeo IP al decodificador (que no se muestra en el
dibujo) para obtener el Vídeo HD final.Las direcciones de envió y recepción se suministran
al adquirir la licencia "Broadcast".
Para decodificar Zixi podemos hacerlo con un Zixi receiver + un decodificador o bien
simplemente con un BR-DE800 con licencia Zixi "licencia de pago único "Zixi -Link".
Aquí podéis ver resumidas las diferencias entre Zixi Broadcaster y Zixi Link, siendo el
Link a mi entender un perfecto aliado al uso en canales de noticias y deportes, ya que
pueden usar un gran parque de cámaras (una a la vez), y recibir así señal en directo desde
prácticamente cualquier punto. Esta señal procedente de cualquier cámara JVC (Host) u
otras con codificadores IP-Zixi externos pueden entrar en producción como una fuente más
de vídeo con garantías de estabilidad para directo. Esto permite a cualquier TV disponer de
multitud de unidades móviles (tantas como cámaras) y eliminar los enormes costes de
desplazamiento de una unidad móvil para cubrir directos en lugares donde con una sola
cámara o simplemente con algunos planos queda cubierto el evento.
Zixi Link y Zixi Eco Zystem son básicamente iguales en funcionamiento, en lo que
difieren básicamente es que Zixi Link utiliza equipos de Zixi (Zixi Feeder/Receiver)
mientras que Zixi-Zystem es aquel que usa la misma tecnología, pero esta, está integrada
en equipos de fabricantes asociados como es JVC, ViTEC,NewteK ,Teradek y otros.
Recordar que: JVC codifica internamente, por tanto la señal se extrae directamente del
procesador de imagen y se eliminan multitud de pasos previos a la codificación, esto da
como resultado una señal muy limpia y sin errores de manipulación , conversión o sub-
muestreo , esto queda claramente reflejado en la calidad de la codificación con imágenes
limpias, muy definidas y con un retardo o latencia inferior a si utilizamos decodificadores
externos.
BR-DE800.
En caso de que dispongamos de un decodificador BR-DE800 deberemos suministrar al
pedir la licencia el ID de nuestro decodificador.
VLC con Plug-in Zixi, Guía de instalación rápida de
Windows
Traducción de documento original Zixi, descargar original aquí
VLC es un reproductor multimedia libre que permite reproducir corrientes Zixi utilizando un
plug-in específico Zixi.
VLC con el plugin Zixi proporciona la posibilidad de ver en la calidad original y controlar
fácilmente los flujos procedentes de un Transmisor Zixi desde cualquier parte del mundo,
siempre y cuando exista suficiente ancho de banda y disponga de la licencia Transmisor.
Como usar Zixi con VLC
Procedimiento:
1. Verifique que VLC está instalado en su PC con Windows. Si no tiene instalado VLC
descárguelo de la página oficial http://www.videolan.org/vlc/ e instálelo siguiendo las
instrucciones, una vez instalado reinicie su PC.
2. Descargue e instale el plug-in Zixi de VLC
en: http://downloads.zixi.com/free/zixi_vlc_plugin-win32-1.9-latest.zip
3. Inicie la aplicación VLC y pulse Ctrl + N para abrir la sección "Open Media / Red".
Escriba la dirección URL del canal: Zixi: // /
Nota - Si tiene acceso a la interfaz de usuario del Broadcaster Zixi que está transmitiendo,
puede instalar el plug-in VLC y al elegir el flujo de entrada puede en luego en "Opciones"
-> "Reproducir con VLC '.
Latencia y FEC ajustes:
Latencia predeterminada es 6000ms. En caso se requiera disminuir o seleccionar otra
latencia, siga los pasos descritos a continuación para configurar un valor diferente:
1. Abra VLC
2. Presione CTRL + P (Herramientas-> Preferencias)
(Recomendación – Una alta latencia proporcionará una mejor robustez; permitir más de 4
segundos y hasta el máximo que sea posible. La regla de oro es permitir al menos [3x
(RTT + jitter) ms]. Para latencia por debajo de 1.500 ms, comprobar las estadísticas de
transmisión de streaming y añadir FEC (si es necesario).
En el caso de aplicaciones de baja latencia, podría ser necesario añadir FEC para mejorar
la recuperación de paquetes perdidos. Utilice los siguientes pasos para habilitar FEC en
VLC:
Siga los pasos descritos anteriormente..
1. Abra VLC
2. Presione CTRL + P (Herramientas-> Preferencias)
3. Seleccione "Todos" en la sección "Mostrar ajustes" (esquina inferior izquierda)
4. Expandir “Entrada / Codecs”, luego expandir “módulos de acceso ", Seleccione “ Zixi”'
5. Introduzca el porcentaje y tamaño de FEC. (Forward Error Corrección)
However the downside is that the application doesn’t have any control
on the protocol itself, its timeouts, its windows of retransmission, etc.
Under bad network conditions, a typical TCP connection can freeze for
a minute before returning an error.
This is not acceptable in a professional environment, where fast
recovery is a must. UDP allows for a better control of the algorithm,
which improves the predictability of its behaviour. That is why I chose
UDP/RTP for multicat ten years ago, as well as other subsequent
proprietary or open implementations.
In the 2010s, two companies developed proprietary solutions for point-
to-point delivery over the Internet : VideoFlow and Zixi. They modelled
their price list over the prices for satellite contribution: per transferred
MB. As a result, you pay for your own bandwidth. The comparison with
satellite costs is however very favorable, and they were very successful.
By far the most visited video of 2019 was the Merrick Ackermans’ review of RIST first
release. RIST, the Reliable Internet Stream Transport protocol, aims to be an interoperable
protocol allowing even lossy networks to be used for mission-critical broadcast contribution.
Using RIST can change a bade internet link into a reliable circuit for live programme
material, so it’s quite a game changer in terms of cost for links.
An increasing amount of broadcast video is travelling over the public internet which is
currently enabled by SRT, Zixi and other protocols. Here, Merrick Ackermans explains the
new RIST specification which aims to allow interoperable internet-based video contribution.
RIST, which stands for Reliable Internet Stream Transport, ensures reliable transmission of
video and other data over lossy networks. This enables broadcast-grade contribution at a
much lower cost as well as a number of other benefits.
Many of the protocols which do similar are based on ARQ (Automatic Repeat-reQuest)
which, as you can read on wikipedia, allows for recovery of lost data. This is the core
functionality needed to bring unreliable or lossy connections into the realm of usable for
broadcast contribution. Indeed, RIST is an interesting merging of technologies from around
the industry. Many people use Zixi, SRT, and VideoFlow all of which can allow safe
contribution of media. Safe meaning it gets to the other end intact and un-corrupted.
However, if your encoder only supports Zixi and you use it to deliver to a decoder which
only supports SRT, it’s not going to work out. The industry as accepted that these formats
should be reconciled into a shared standard. This is RIST.
File-based workflows are mainly based on TCP (Transmission Control Protocol) although,
notably, some file transfer service just as Aspera are based on UDP where packet recovery,
not unlike RIST, is managed as part of the the protocol. This is unlike web sites where all
data is transferred using TCP which sends an acknowledgement for each packet which
arrives. Whilst this is great for ensuring files are uncorrupted, it can impact arrival times
which can lead to live media being corrupted.
RIST is being created by the VSF – the Video Standards Forum – who were key in
introducing VS-03 and VS-04 into the AIMS group on which SMPTE ST 2022-6 was then
based. So their move now into a specification for reliable transmission of media over the
internet has many anticipating great things. At the point that this talk was given the simple
profile has been formed. Whist Merrick gives the details, it’s worth pointing out that this
doesn’t include intrinsic encryption. It can, of course, be delivered over a separately
encrypted tunnel, but an intrinsic part of SRT is the security that is provided from within the
protocol.
Despite Zixi, a proprietary solution, and Haivision’s open source SRT being in competition,
they are both part of the VSF working group creating RIST along with VideoFlow. This is
because they see the benefit of having a widely accepted, interoperable method of
exchanging media data. This can’t be achieved by any single company alone but can benefit
all players in the market.
This talk remains true for the simple profile which just aims to recover packets. The main
protocol, as opposed to ‘simple’, has since been released and you can hear about it in a
separate video here. This protocol adds FEC, encryption and other aspects. Those who are
familiar with the basics may whoosh to start there.
Open GL
Progressive segmented Frame (PsF, sF, SF) is a scheme designed to acquire, store, modify,
and distribute progressive scan video using interlaced equipment.
With PsF, a progressive frame is divided into two segments, with the odd lines in one segment
and the even lines in the other segment. Technically, the segments are equivalent to
interlaced fields, but unlike native interlaced video, there is no motion between the two fields
that make up the video frame: both fields represent the same instant in time. This technique
allows for a progressive picture to be processed through the same electronic circuitry that is
used to store, process and route interlaced video.
The term progressive segmented frame is used predominantly in relation to high
definition video. In the world of standard definition video, which traditionally has been using
interlaced scanning, it is also known as quasi-interlace,[1] progressive recording[2] or movie mode.
[3]
Other names for PsF used by electronic equipment manufacturers include progressive
recording (Sony), progressive scan mode (Sony), progressive shutter mode (Sony), frame
shutter mode (Sony), frame mode (Panasonic and Canon), Digital Cinema (Panasonic), Pro-
Cinema (Panasonic) and Cinema mode (Canon).
Contents
1History
2Usage
3Similar technologies
o 3.12:2 pulldown (TV broadcast)
o 3.2PALplus film mode (TV broadcast)
o 3.3Video recorders
4Variants
5References
History[edit]
PsF was designed to simplify the conversion of cinematic content to different video standards,
and as a means of video exchange between networks and broadcasters worldwide.[4] Brought to
life by the movie industry in the end of the 1990s, the original PsF specification was focused on
24 frame/s content, resulting in existing interlaced equipment having to be modified for 48 Hz
scanning rate in order to work properly with 24 frame/s content.
Not everyone welcomed the PsF standard, however. Some industry observers maintained that
native 24p processing would have been a better and cleaner choice. Charles Poynton, an
authority in digital television, made the following remark in his book: "Proponents of [PsF]
scheme claim compatibility with interlaced processing and recording equipment, a dubious
objective in my view."[1] William F. Schreiber, former Director of the Advanced Television
Research Program at MIT, suspected that the continued advocacy of interlaced equipment
originated from consumer electronics companies that were trying to get back the substantial
investments they had made in obsolete technology.[5]
Usage[edit]
Despite the criticism, PsF quickly became a de facto standard for high quality film-to-video
transfer. One of the documented examples of PsF usage is the 2003 transfer of the film
"Terminator 2: Judgment Day" to DVD, performed by Artisan Entertainment and THX. The
original 24 frame/s movie was converted to PsF format and recorded to HD-D5 videotapes. This
allowed for the creation of a digital master that was nearly identical to the original film, and
made it possible to edit digitally at the native frame rate.[6] The same digital master appears to
be used for the 2006 Blu-ray Disc transfer of the movie.[7]
PsF has been recognized by Recommendation ITU-R BT.709 as a legitimate way to transport
progressive frames within an interlaced system. 25PsF and 30PsF rates have been added to
the specification in addition to the more established 24PsF. "Fractional" frame rates, having the
above values divided by 1.001, are also permitted; the resulting 23.976PsF and 29.97PsF rates
are used in 59.94 Hz systems. No change from 59.94 Hz systems to 60 Hz (although provided
for and anticipated) has occurred allowing display on analog NTSC color televisions and
monitors after down-conversion and encoding.
PsF became a means of initial image acquisition in professional Sony video cameras. It is
employed in HDCAM and XDCAM video cameras, including the HDW-F900 CineAlta camera
which was used by George Lucas for creating Star Wars, Episode 2, and by Alexander
Sokurov for creating Russian Ark fully in the digital domain.
Similar technologies[edit]
2:2 pulldown (TV broadcast)[edit]
2:2 pulldown is widely used in 50 Hz interlaced television systems to broadcast progressive
material recorded at 25 frame/s, but is rarely used in 60 Hz systems. The 2:2 pulldown scheme
had originally been designed for interlaced displays, so fine vertical details are usually filtered
out to minimize interline twitter. PsF has been designed for transporting progressive content and
therefore does not employ such filtering.
PALplus film mode (TV broadcast)[edit]
PALplus utilizes a digital stream embedded in the interlaced analog TV signal called widescreen
signaling, which, among other data, describes whether the signal should be treated as
interlaced ("camera mode") or progressive("film mode).[3]
Video recorders[edit]
PsF is utilized in some DV, HDV and AVCHD camcorders for 25-frame/s and 30-frame/s
progressive-scan recording. To achieve this, the camera acquires 30 (NTSC) or 25 (PAL)
independent images per second. These images are output as 60 (NTSC) or 50 (PAL) interlaced
fields. The result is a progressive-scan content, which is compatible with traditional interlaced
scanning systems.
This is how Sony described the progressive recording mode in the operating guide for a 60 Hz
("NTSC") Sony DCR-HC96 camcorder:
Note on the progressive recording mode
In a normal TV broadcast, the screen is divided into 2 finer fields and these are displayed in
turn, every 1/60 of a second. Thus, the actual picture displayed in an instant covers only half of
the apparent picture area. In progressive recording, the picture is fully displayed with all the
pixels.[2]
The booklet for the 50 Hz ("PAL") Sony DSR-PD175P camcorder describes its progressive
recording mode as follows:
Progressive Scan Mode
The 25p image captured by the sensor system is recorded as an interlaced signal by dividing
each frame into two fields. This enables compatibility with current editing and monitoring
equipment that only accept interlaced signals, while maintaining the quality of the 25p image.[8]
The operating instructions for the 60 Hz ("NTSC") Panasonic PV-GS500 camcorder describe its
progressive recording mode as follows:
Pro-Cinema function
In addition to the effects when the Wide function is used, images can also be recorded at a rate
of 30 frames a second with a strobe-like effect.[9]
The HDV Progressive Primer whitepaper mentions Progressive Segmented Frame mode:
Progressive Scan Mode
In this mode, the captured image is divided into two halves, then recorded or output as interlace
signal. The halves are called segments, not fields, because there is no temporal difference
between them. This method is also called as PsF (Progressive segmented Frame) recording.
The Progressive Scan mode is suitable for the feature films, documentaries, music videos which
have to be recorded as interlaced video for viewing on interlaced monitors, but want to offer
“progressive-look” to their motion. Besides, the video taken in the Progressive Scan mode can
be edited and output as true progressive video if needed.[10]
Consumer camcorders as well as most professional camcorders do not use PsF to record 24-
frame/s video; instead they either record it natively in progressive form or apply 2:3 pulldown.
Most video formats including professional ones utilize chroma subsampling to reduce amount
of chroma information in a video, taking advantage of the human visual system's lower acuity for
color differences than for luminance.[11] Such a reduction improves compression of the video
signal, which is always desirable because of storage and transmission limitations. To ensure
compatibility with interlaced-based systems, chroma information in PsF video is sometimes
recorded in interlaced format, despite that the content is progressive. This may result in
interlaced artifacts being noticeable on colored objects.[12]
Variants[edit]
24PsF (48sF, 1080sf24, 1920×1080/24/1:1SF) is the original PsF format, which is used
in professional equipment for film-to-video transfer, for high definition mastering and for
video exchange between networks. This may be the first universal video standard which
transcends continental boundaries, an area previously reserved for film.[13]
25PsF (1080sf25, 1920×1080/25/1:1SF) is used in 50 Hz systems for production that
originates on video and is targeted for television distribution.
29.97PsF (1080sf29, 1920×1080/29.97/1:1SF) formats are sometimes used in 60 Hz
systems for sitcoms and music shows.[14][15] 29.97PsF as well as 30PsF (30p, 1080sf30,
1920×1080/30/1:1SF) formats are gaining popularity as an acquisition format for Web video
delivery, because most video hosting web sites cannot stream video with rates higher than
30 frame/s.
References[edit]
1. ^ Jump up to:a b Charles Poynton, Digital Video and HDTV: Algorithms and Interfaces.
2. ^ Jump up to:a b "DCR-HC36/HC46/HC96 Operating Guide" (PDF). Sony Corporation. 2006.
Retrieved 2010-08-11.
3. ^ Jump up to:a b "All You Ever Wanted to Know About PALplus but were Afraid to Ask".
4. ^ "Jim Mendrala, A discussion of 24p frame and the new 48sF frame format".
5. ^ "The history and politics of DTV" (PDF).
6. ^ "Terminator 2: Extreme Edition". Archived from the original on 2008-05-31.
7. ^ "Terminator 2: Judgment Day (Blu-ray)".
8. ^ "DSR-PD175P: 1/3-inch 3 Exmor CMOS professional DVCAM camcorder".
9. ^ "Panasonic PV-GS500: operating instructions" (PDF).
10. ^ HDV Progressive Primer (PDF). Sony. p. 11.
11. ^ S. Winkler, C. J. van den Branden Lambrecht, and M. Kunt (2001). "Vision and Video:
Models and Applications". In Christian J. van den Branden Lambrecht (ed.). Vision models and
applications to image and video processing. Springer. p. 209. ISBN 978-0-7923-7422-0.
12. ^ Adam Wilt (2009-01-12). "Review: Canon Vixia HF11 AVCHD camcorder". ProVideo
Coalition.
13. ^ "Steve Wiedemann, 24/P HDTV: The Fall of Film Production".
14. ^ "'Beside You in Time' by Nine Inch Nails was encoded as interlaced" .
15. ^ "Sony BDP-S350 Blu-ray Player review".
Categories:
Film and video technology
Tipos de relojes
En función de cómo se distribuye el reloj por los diferentes nodos de la red, éstos
nodos pueden asumir los siguientes roles:
Ordinary clock (OC): es un nodo con un único puerto PTP que funciona en modo
slave. Es un nodo terminal de red que recibe la sincronización a través de este puerto
slave.
Boundary clock (BC): es uno nodo que tiene múltiples puertos PTP. A través del
protocolo BMC (Best Master Clock) cada puerto identifica su mejor reloj. Si el mejor
reloj es un nodo externo, dicho puerto se configurará como slave sincronizándose a
partir del puerto master del nodo externo conectado. Si por el contrario el propio puerto
es el mejor reloj, éste se configurará como master permitiendo la sincronización de los
slaves conectados a dicho puerto. Los boundary clock actúan como elementos
intermedios en la red y permiten la interconexión y sincronismo entre diferentes
dominios PTP.
Transparent clock (TC): estos nodos no participan del mecanismo BMC y por
tanto no actúan propiamente como master o slave. Simplemente intentan dejar pasar
los paquetes PTP de la forma más transparente posible. Hay dos tipos:
End-to-End transparent clock (E2E): cuando un paquete PTP traspasa el
nodo, se le añade a la salida el tiempo de tránsito del paquete dentro del nodo
Peer-to-Peer transparent clock (P2P): en este caso, además del tiempo de
tránsito le añadimos también el retardo del nodo anterior. De esta forma tenemos
realmente el offset total de tiempo del paquete PTP desde el anterior nodo a la
salida del P2P.
En la siguiente figura vemos de forma gráfico una red PTP con los diferentes tipos
de relojes.
Protocolo NTP – Los Miércoles de Tecnología
POSTED ON POSTED ON18/04/2018BYJOSÉ RAMÓN SALVADOR
Fuente: ADVA y
Osciloquartz
El protocolo NTP se estructura de una forma jerárquica donde un mismo equipo o
nodo de la red puede actuar como cliente y servidor al mismo tiempo. Como
servidor atiende las peticiones NTP de los equipos inferiores y como cliente solicita
el tiempo con mayor precisión a los equipos superiores tal y como se muestra en la
siguiente figura. También algunos equipos pueden funcionar en modo ‘peer’
obteniendo el reloj de otro servidor pero pudiendo, a su vez, entregar el reloj a
dicho servidor si así éste lo solicita.
Tal y
como se muestra en la figura, el reloj o sincronismo se va degradando a medida
que bajamos de nivel ya que cada transacción cliente/servidor implica una pérdida
de precisión derivada de los retardos variables de transmisión y de proceso de los
paquetes NTP en cada uno de los nodos intermedios. A mayor número Stratum,
menor precisión del reloj.
GPO
Directiva de Grupo es una característica de Windows NT, familia de Sistemas Operativos.
Directiva de grupo es un conjunto de reglas que controlan el entorno de trabajo de cuentas de
usuario y cuentas de equipo. Directiva de grupo proporciona la gestión centralizada y
configuración de sistemas operativos, aplicaciones y configuración de los usuarios en un
entorno de Active Directory. En otras palabras, la Directiva de Grupo, en parte, controla lo que
los usuarios pueden y no pueden hacer en un sistema informático. Aunque la Directiva de
Grupo es más frecuente en el uso de entornos empresariales, es también común en las
escuelas, las pequeñas empresas y otros tipos de organizaciones más pequeñas. Directiva de
grupo a menudo se utiliza para restringir ciertas acciones que pueden presentar riesgos de
seguridad potenciales, por ejemplo: Bloquear el acceso al Administrador de tareas, restringir el
acceso a determinadas carpetas, deshabilitar la descarga de archivos ejecutables, etc.
¿Qué es un CDN?
Una CDN (Red de Distribución de Contenido o Content Delivery Network, por sus
siglas en inglés) es un conjunto de servidores ubicados en diferentes zonas
geográficas que contienen copias locales de los contenidos de los clientes.
0 comentarios
Para entender bien qué es Qos, qué implicaciones tiene y cómo opera en la red, hay que ir por
partes. El concepto de QoS implica una serie de técnicas y protocolos destinados a mantener
unos requerimientos en diversos aspectos de una conexión. Estos requerimientos son las
calidades del servicio que se pretende salvaguardar. El concepto de calidad del servicio es
tremendamente amplio y pueden referirse a temas como el tiempo de respuesta, pérdidas de
información, capacidad de reconexión, etc. Calidad del servicio es también proveer prioridades
a aplicaciones, flujos de datos y usuarios.
Para poder llevar a cabo el QoS en redes de datos, existen diversos mecanismos o estrategias
que se sirven de protocolos o reglas específicas. Estos mecanismos de QoS pueden ser
independientes del medio de transmisión o capa dos (por ejemplo Diffsev que opera a nivel
IP) , o estar implementados en estrecha relación con el medio de transmisión como por ejemplo
ATM.
Denominado Diffserv se trata de marcar paquetes según un tipo de servicio deseado. Los
routers y switches de la red usan por lo general estrategias de encolado del tráfico para
priorizar el tráfico atendiendo a dicha marca en el paquete.
En este modelo son las aplicaciones las que reservan un recurso a lo largo de la red mediante
un protocolo de reservación de recurso. Actualmente está en desuso en redes grandes debido
a sus problemas de escalabilidad. Su principal exponente fue el protocolo RSVP.
Por otra parte en cuanto a la capa dos, también es posible marcar paquetes para un
tratamiento especial en la red. En el caso de redes Ethernet el estándar 802.1p utiliza una
cabecera 802.1Q (VLAN) para implementar un nivel de ocho prioridades o calidades de servicio
usando el campo user_priority de tres bits de la cabecera 802.1Q añadida a la trama.
Otra técnica de capa dos es MPLS, la cual añade etiquetas en dicho nivel, asignando distintos
niveles de QoS. MPLS realiza la conmutación de paquetes en función de dichas etiquetas
independientemente de la tecnología de transporte. Por ello MPLS permite servicios
multiprotocolo y es portable sobre distintas tecnologías de enlace como Ethernet, ATM, Frame-
Relay, etc.
Una vez encuadrado QoS en las redes de datos, vamos a entrar en un poco más de detalle en
algunos aspectos.
Cuando se creó IP, se incluyó en su cabecera un campo de 8 bits llamado ToS (type of service)
o tipo de servicio. Este campo ha tenido varios usos a lo largo del tiempo y ha sido redefinido
en varias RFCs.
0 1 2 3 4 5 6 7
En cuanto al subcampo Type of Service, cada bit tenía un significado específico según esté a 0
o a 1:
DSCP no es más que un código con el que se marcan los paquetes ToS de la cabecera IP y
que es utilizado por una técnica llamada Difserv para implementar QoS en redes IP.
DSCP se transporta en los seis primeros bits del campo ToS, es decir, permite 64 valores
diferentes. Pero para mantener cierta compatibilidad con los tres bits de Precedencia, el campo
de seis bits del DCSP se dividió en dos grupos. Los tres primeros bits tienen el mismo
significado que el IP Precedence y marcan una prioridad en el paquete. Los tres últimos bits
significan Drop Preference y también marcan un segundo nivel de órden en el posible
descartado de paquetes. El valor que tiene más peso es el de Precedence. Si dos paquetes
tienen el mismo Precedence, cuanto más pequeño sea del Drop Preference menos
probabilidad de ser descartado.
El código DSCP puede ser introducido en la cabecera IP por el propio host, para marcar el
switch qué tráfico es más prioritario. Por supuesto los switches y routes pueden introducir el
código DSCP a determinado tipo de tráfico que se considere prioritario en la red. Además los
switches y routres pueden también cambiar el código DSCP entrante por otro distinto, alterando
el tratamiento de un determinado tipo de tráfico en la red.
En DSCP el concepto IP Precedence se llama Class Selector. Lógicamente hay ocho Class
Selectors: CS0-CS7, y para cada CS podría haber hasta otros ocho posibles Drop Preference
aunque no se utilizan todos ya que sólo se usan dos bits del subcampo. El binomio CS-Drop
Preference ha derivado en lo que se conoce como PHB (Per Host Behavior). Algunos CS
tienen nombres especiales, como se verá en las siguientes tablas. Por último algunos CS se
denominan también Assured Forwarding (AF) y van seguidos de dos números según el valor
del Drop Preference.
Para cada AF de han definido tres prioridades de descartes y nombrados como AFxy,
donde x es el AF correspondiente y la y asigna una probabilidad de descarte. Así tenemos de
AF11 al AF13, AF21 al AF23 y así hasta el AF43.
DSCP DECIMAL DROP EQUIVALENT IP PRECEDENCE
Expedited forwarding
101 110 46 (EF) N/A 101 – Critical
Así por ejemplo, en una red mixta datos-VoPI marcaríamos los paquetes de voz con DSCP 46
en los hosts de origen o en los switches de acceso y haríamos que los routers y switches de
transporte priorizaran ese tráfico.