Curso de Redes. 3.3.3. Control de errores. Códigos correctores
Summary
TLDREl guion del video ofrece una explicación detallada de los códigos correctores de errores en comunicaciones. Se discute cómo estos códigos mejoran la relación señal/ruido, permitiendo una transmisión más eficiente y robusta. Se menciona la implementación de códigos en tecnologías como Ethernet, fibra óptica y redes inalámbricas, destacando su importancia en entornos propensos a errores. También se explora la historia de los códigos correctores, desde su desarrollo por Richard Hamming hasta su uso en estándares modernos como 802.11n y 10 Gigabit Ethernet. El video ilustra cómo los códigos FEC (Forward Error Correction) son esenciales para la fiabilidad de las comunicaciones digitales.
Takeaways
- 🔍 Los códigos de detección de errores son fundamentales para identificar y descartar paquetes de datos incorrectos durante la transmisión.
- 🔧 Al detectar un error, la paridad no permite corregirlo, sino que se debe descartar el paquete erróneo y continuar.
- 📈 Los códigos correctores de errores mejoran la relación señal/ruido del canal, permitiendo una mayor robustez y la posibilidad de usar modulaciones más ricas.
- 🛠️ La implementación de códigos correctores es común en la capa física de las comunicaciones, como en Ethernet y en la fibra óptica, para incrementar la resistencia a errores.
- 🌐 La corrección de errores en la transmisión de datos es esencial en comunicaciones inalámbricas y en redes como ADSL y TV digital, donde la interacción es limitada.
- 📚 El primer entorno donde se aplicaron sistemáticamente los códigos correctores fue en la transmisión digital de televisión y en ADSL.
- 👨💻 Richard Hamming, un matemático, fue pionero en el desarrollo de los primeros códigos correctores de errores durante la Segunda Guerra Mundial.
- 🔠 Los códigos FEC (Forward Error Correction) son una forma de corrección de errores que no requiere la retransmisión de datos y mejora la fiabilidad de las comunicaciones.
- 🔢 La eficacia de los códigos correctores se mide por su capacidad para tolerar errores y mejorar la tasa de bits transmitidos por segundo.
- 📈 La implementación de códigos como los de Hamming, Convolución, Reed-Solomon y LDPC (Low Density Parity Check) ha permitido incrementar la velocidad y alcance de las comunicaciones.
- 🌐 Los códigos LDPC, aunque inicialmente considerados demasiado complejos, se han vuelto prácticos con la evolución de la tecnología y son utilizados en estándares modernos de comunicaciones.
Q & A
¿Qué se entiende por 'detector de errores' en el contexto del script?
-Un detector de errores es un mecanismo que permite identificar si ha habido algún cambio o alteración en los datos transmitidos, como un error de transmisión. En el script, se menciona que si se detecta un error y no se puede realizar la paridad, se debe descartar la trama errónea.
¿Cómo se relaciona la corrección de errores con la relación señal/ruido en un canal de transmisión?
-La corrección de errores mejora la relación señal/ruido del canal, permitiendo que con la misma calidad del canal se transmitan más datos de manera más robusta, utilizando códigos correctores que permiten exprimir más la capacidad del canal.
¿Por qué se podría utilizar un código corrector en lugar de simplemente detectar errores?
-Los códigos correctores no solo detectan errores sino que también pueden corregirlos, lo que permite una mayor fiabilidad en la transmisión de datos, especialmente en entornos propensos a errores, sin necesidad de retransmisiones.
¿En qué capa de la red se implementan realmente los códigos correctores de errores, según el script?
-Aunque la función de control de errores tradicionalmente es de la capa de enlace, en la realidad, los códigos correctores se implementan en la capa física, como se menciona en el caso de Ethernet y la internet de 10 gigabits.
¿Qué es la paridad longitudinal y cómo ayuda en la detección y corrección de errores?
-La paridad longitudinal es una forma de agregar bits adicionales a los datos para poder detectar y corregir errores. En el script, se ejemplifica cómo al tener una fila de paridad longitudinal, se puede identificar qué bit ha fallado y corregirlo.
¿Cómo se relaciona la adición de información de control con la robustez de la transmisión de datos?
-Al añadir información de control, como bits de paridad o códigos correctores, se incrementa la redundancia en los datos, lo que a su vez mejora la capacidad de la transmisión para detectar y corregir errores, proporcionando mayor robustez.
¿Por qué se dice que la corrección de errores es el 'reino de los matemáticos'?
-La corrección de errores es un área que requiere de algoritmos y sistemas matemáticos complejos para añadir redundancia de manera eficiente, maximizando el rendimiento y la fiabilidad de la transmisión de datos con un mínimo de overhead.
¿Cuál fue el primer entorno donde se aplicaron sistemáticamente los códigos correctores de errores?
-Los códigos correctores de errores se aplicaron sistemáticamente por primera vez en los sistemas de transmisión digital de televisión y en ADSL, donde era crucial asegurar una señal de calidad para la visión en casa.
¿Qué son los códigos de Hamming y en qué año se publicaron?
-Los códigos de Hamming son algunos de los primeros códigos correctores de errores desarrollados por Richard Hamming, un matemático que trabajó en el Proyecto Manhattan. Se publicaron en el año 1950.
¿Cómo se relaciona el uso de códigos correctores con la modulación y la eficiencia de la transmisión en redes inalámbricas como WiFi?
-En redes inalámbricas, la elección de la modulación y el código FEC (Forward Error Correction) depende de la calidad de la señal. Con una buena calidad de señal, se pueden utilizar códigos con menor overhead y modulaciones de alta densidad de bits, aumentando la eficiencia de la transmisión.
Outlines
😀 Introducción a los códigos correctores de errores
El primer párrafo introduce los conceptos básicos de los códigos correctores de errores. Se menciona que, al detectar un error en la transmisión de datos, la paridad no permite corregirlo y se descarta. Sin embargo, los códigos correctores mejoran la relación señal/ruido del canal, permitiendo una transmisión más robusta y la posibilidad de utilizar modulaciones más complejas. Además, se destaca que estos códigos son implementados en la capa física, como en el caso de Ethernet y tecnologías de alta velocidad, y se explica con un ejemplo sencillo cómo se pueden detectar y corregir errores utilizando paridad longitudinal.
📚 Historia y desarrollo de los códigos correctores
Este párrafo explora la historia y el desarrollo de los códigos correctores de errores, desde su primer uso en sistemas de transmisión digital de televisión y ADSL hasta su implementación en fibra óptica y redes inalámbricas. Se menciona a Richard Hamming, quien trabajó en el Proyecto Manhattan y desarrolló los primeros códigos correctores. También se discuten otros tipos de códigos como los de Jamming, Convolución, y Red Solomon, y se destaca la importancia de la corrección de errores en comunicaciones simplex, donde no es posible solicitar una retransmisión de datos.
🔍 Avances en la tecnología de códigos correctores
El tercer párrafo profundiza en el progreso tecnológico de los códigos correctores, desde los primeros códigos de Jamming en 1950 hasta los códigos LDPC (Low Density Parity Check) desarrollados por Robert Gallager en 1963. Se describe cómo los códigos LDPC, aunque muy eficientes, fueron inicialmente descartados por su complejidad. Sin embargo, con el avance de la tecnología, se han vuelto prácticos y se utilizan en estándares modernos como 802.11n y en redes inalámbricas y de televisión digital. Además, se ilustra cómo estos códigos afectan la negociación de la modulación y la eficiencia en la transmisión de datos.
📈 Efectividad de los códigos correctores en la fibra óptica
Este párrafo se enfoca en la aplicación de los códigos correctores en fibra óptica, destacando su importancia en conexiones de larga distancia. Se menciona un estándar desarrollado por la ITU para el uso de códigos FEC en fibra óptica y se presenta un ejemplo de cómo estos códigos pueden mejorar significativamente la tasa de error y la relación señal/ruido, permitiendo una mayor distancia de transmisión o un mayor caudal de datos.
🔧 Aplicación práctica de los códigos correctores en la vida real
El último párrafo ofrece un ejemplo práctico de cómo los códigos correctores pueden ser utilizados para mejorar la calidad de la señal en transmisiones de datos. Se discute cómo, con un overhead del 15%, se puede disminuir la relación señal/ruido requerida para alcanzar una tasa de error específica, lo que resulta en una mayor eficiencia y rentabilidad en la transmisión. Se ilustra cómo diferentes niveles de redundancia en los códigos Gallager pueden ser negociados según la calidad de la señal, permitiendo adaptarse a diferentes condiciones de transmisión.
Mindmap
Keywords
💡Códigos correctores de errores
💡Relación señal/ruido
💡Modulación
💡Redundancia
💡Paridad
💡Ethernet
💡Fibra óptica
💡ADSL
💡Códigos de Hamming
💡LDPC (Códigos de comprobación de densidad baja)
Highlights
Los códigos de detección de errores y corrección son fundamentales en la transmisión de datos para mejorar la relación señal/ruido y la robustez de las comunicaciones.
La paridad no es suficiente para corregir errores, solo para detectarlos; si se produce un error, se debe descartar la trama.
Los códigos correctores mejoran la relación señal/ruido del canal, permitiendo una mayor eficiencia en la transmisión de datos.
La implementación de códigos correctores de errores es común en la capa física de Ethernet y en tecnologías como la fibra óptica y ADSL.
Los códigos correctores permiten una modulación más rica con más bits por símbolo, lo que mejora la calidad de la transmisión.
La corrección de errores mediante códigos mejora la fiabilidad de las comunicaciones, incluso en entornos propensos a errores.
Los códigos de paridad y longitudinales forman una matriz que permite la detección y corrección de errores individuales.
La adición de información de control a través de códigos correctores conlleva un costo en términos de reducción de la tasa de datos útiles.
La redundancia en la información es clave para la detección y corrección de errores, como se ve en el lenguaje hablado y escrito.
Los matemáticos juegan un papel crucial en el desarrollo de códigos correctores que optimizan la redundancia y fiabilidad.
Los primeros entornos donde se aplicaron sistemáticamente los códigos correctores fueron en la transmisión digital de televisión y ADSL.
La fibra óptica ha beneficiado del uso de códigos correctores para mejorar el rendimiento y alcance de las comunicaciones.
Los códigos de Hamming, desarrollados por Richard Hamming, marcan el inicio de la era de la corrección de errores en la informática.
Los códigos FEC (Forward Error Correction) son una forma de corrección de errores que no requiere la retransmisión de datos.
Los códigos convolución y Reed-Solomon se utilizan en redes inalámbricas y estándar GSM para mejorar la resiliencia a errores.
Los códigos LDPC (Low Density Parity Check), aunque inicialmente considerados demasiado complejos, se han vuelto prácticos con el avance de la tecnología.
Los estándares 802.11n y 802.11ac en redes inalámbricas utilizan códigos LDPC para una mayor eficiencia y corrección de errores.
La eficiencia de los códigos correctores se mide por la reducción de la tasa de error y el overhead que se añade al flujo de datos.
La negociación de la modulación y el código FEC por parte de los dispositivos móviles depende de la calidad y la intensidad de la señal recibida.
Los datos reales de la tasa de error en fibra óptica muestran la importancia de los códigos FEC en la reducción de errores y mejora de la calidad de la transmisión.
Transcripts
[Música]
bueno pues esto eran los códigos
detectores el primer nivel pero
detectamos el error y cuando vemos ha
habido un error pues como lo divide
paridad no podemos hacer nada solo tirar
a la basura evidentemente esa trama para
que la queremos seguir transmitiendo al
siguiente sí ya sabemos que es errónea
nos seguimos retiramos y nos olvidamos
de ella
pero
el siguiente nivel es pretender corregir
los errores
bueno se puede ver como una forma de
mejorar la relación señal/ruido del
canal es decir tú tienes un determinado
canal de transmisión que por su relación
señal/ruido de acuerdo a la de sharon
que veíamos el otro día te permite
transmitir un caudal de bits por segundo
a ver si tú pones un código corrector lo
que sucede es que
con ese mismo canal con esa misma
calidad
vas a ser más robusto entonces vas a
poder exprimir más por ejemplo vas a
poder ir a una modulación más rica con
más bits por símbolo cosa que antes no
podías porque ya te daba demasiados
errores pero como tienes un código
corrector a lo mejor ahora puedes
entonces por eso digo que los códigos
correctores se pueden ver como una forma
un poco artificial por eso digo virtual
de mejorar la relación señal/ruido del
canal
y aunque lo estamos viendo aquí en el
nivel de enlace casi siempre es
implementado realmente la capa física lo
que pasa que como la función de control
de errores tradicionalmente es de la
capa de enlace me parecía más lógico
hablar de los códigos correctores aquí
en la capa de enlace pero que sepáis eso
que están realmente en la capa física
por ejemplo en ethernet
todas las eternas desde la primera desde
la del cable coaxial utilizan el nivel
de enlace el mismo el nivel de enlace es
intocable en internet pero la capa
física se va modificando cuando se pone
la internet de 100 megabits de gigabit
cada evidentemente cada nueva velocidad
implica toda una capa física nueva pues
la internet de 10 gigabytes ha
incorporado que antes no estaba un
código corrector de errores para hacerla
más resistente a un entorno hostil como
viva más al límite de las posibilidades
del cable y la fibra puede tener 10
gigabits ya lleva embebido un código
corrector en la capa física
si eso hubiera estado en la capa de
enlaces no se habría podido añadir
porque la capa de enlace como digo está
esta es inmutable
como decía puede parecer un poco mágico
esto es el código corrector pero podemos
ver un ejemplo muy sencillo de como eso
es posible si miráis esto es el caso de
antes de los kits de paridad pero donde
como veis además de los bits de paridad
de antes la columna vertical de la
izquierda los transversales hemos
añadido una fila abajo dice paridad
longitudinales hemos hecho como una
matriz donde hay bis de paridad aquí
dice para ir de aquí cuál es la
consecuencia de eso que si antes
decíamos que si no se cambia el valor de
un bit sólo podríamos detectar que había
cambiado un bit pero no sabemos cuál
pues ahora sí podemos saber cuál porque
nos va a alterar el vídeo paridad de
aquí por ejemplo si este uno se
convierte en cero este vídeo paridad lo
va a detectar y éste lo va a detectar y
por eso vamos a saber cuál era el bit
que había fallado
y lo podemos corregir
claro esto tiene serias limitaciones de
seguida podéis pensar en combinaciones
de errores que pasarían no detectadas
pero es que este es un caso de un código
corrector muy simple para que veáis
digamos el ejemplo de que es posible la
corrección
la idea siempre es la misma al final lo
que tenemos es que añadir información de
control en este caso estas dos esta fila
y esta columna le pagamos 1 bergé
pagamos un precio pero a cambio
conseguimos una mayor robustez
lo que estamos es añadiendo redundancia
la idea es siempre la misma es como si
pensamos en el lenguaje hablado normal
cuando escribimos un texto las posibles
palabras que podemos hacer de cinco
letras no todas las combinaciones que
podamos hacer con cinco letras son
palabras válidas tendríamos si no me
equivoco 28 a la quinta combinación es
una burrada ya no nos harían falta
palabras de más de cinco letras todas
nuestras palabras del idioma seguramente
que habrían ahí pero qué pasa primero
que abren una serie de impronunciables
porque serían sólo consonantes
entonces como no todas las combinaciones
de cinco letras son palabras válidas si
yo tengo un texto donde de alguna mancha
y alguna letra no la puedo leer muchas
veces puedo deducir qué letra falta por
el resto de letras de la palabra o
incluso por la frase vale también hay
una redundancia en la información a
nivel de frases si en cambio lo que
estoy leyendo es una tabla de números
pues si me falla un número lo hemos
fastidiado no tengo nada ninguna pista
que me diga que puede valer ese número
suponiendo que sean números al azar
o sea que ahí sí que cualquier
combinación es válida en el caso de la
tabla de números no habría ninguna
redundancia en el caso del texto si
entonces si añadimos redundancia podemos
detectar e incluso corregir errores
y esto como los códigos detectores es el
reino de los matemáticos es decir los
matemáticos pueden buscar códigos o
sistemas de añadir esa redundancia que
con un mínimo de overhead nos dan un
máximo de rendimiento en términos de
mejorar la fiabilidad de la capacidad de
corregir errores
y esto es una cosa que se lleva
estudiando bastantes años y se lleva
aplicando bastantes años
el primer entorno donde se aplicaron
sistemáticamente los códigos correctores
fueron en los sistemas de transmisión
digital de televisión y en adsl y la
razón es muy clara
el objetivo de la televisión digital era
transmitir la señal de televisión de
forma digital para que los usuarios en
su casa pudieran ver la tele cuando tú
recibe la señal de televisión sin una
trama o un paquete de datos
de la imagen que estás viendo llega
defectuoso no tiene sentido o no tiene
mucho sentido un código detector de
errores la puedes tirar a la basura pero
no vas a pedir una retransmisión al
emisor porque tu televisor no tiene
capacidad de interacción es una
comunicación simple c's ya que siempre
hay que hay una comunicación simplex la
única posibilidad de resolver un error
es con un código detector y por eso en
la televisión digital se incorpora desde
el principio códigos detector perdón
código correctores de errores y como
adsl nació para competir también con la
televisión digital el objetivo del adsl
no fue dar conexión a internet a bajo
costo eso fue un subproducto no previsto
inicialmente el objetivo inicial era las
operadoras telefónicas que harían su
parte del pastel
de la televisión digital y entonces en
el ads
le dieron una manera de poder enviar un
caudal de vídeo por el hilo por el bucle
de abonado pero tenían que resolver el
problema de cuando había errores y la
solución fue añadir un código corrector
en fibra óptica se vio que eso también
mejoraba el rendimiento se podía
aumentar la velocidad o aumentar el
alcance o ambas cosas poniendo un código
corrector y hoy en día se utiliza
habitualmente y en las redes
inalámbricas pues por lo mismo porque es
un medio digamos propenso a producir
errores e interesa en la medida de lo
posible pues que los errores sean
corregidos sin tener que retransmitir
los
y como digo pues incluso en
transmisiones en cobre como la 10 la 10
gigabits en cobre se utiliza hoy en día
también ya que las cosas apuntan a que
cada vez más se va a utilizar un código
corrector y prácticamente ya hoy en día
se utiliza en todo vale en gigabit
ethernet no hay todavía no pero en 10
gigabit ethernet en co brilloso
bueno históricamente los códigos
correctores son una creación de este
señor de richard hammond
richard jardín era un matemático que
estuvo trabajando en el proyecto
manhattan durante la guerra segunda
guerra mundial para la confección de la
de las primeras bombas atómicas
él se encargaba de dirigir los equipos
de personas que hacían los cálculos para
los físicos porque muchos de los
cálculos todavía se hacían con
calculadoras electromecánicas como
algunas de las que tiene jaime por ahí
en el museo y también con algunos pocos
ordenadores ibm que se utilizaban para
esto entonces él era uno de los
encargados de programar esos ordenadores
y de dirigir los equipos de personas que
hacían los cálculos
hay una anécdota que cuenta él cuando
estaba trabajando en los álamos un
físico le pasó unos cálculos que había
hecho para que lo revisara y entonces él
iba a dar los cálculos a alguien de su
equipo para que lo revisara y le dijo al
físico y esto de que va y se bueno esto
es para calcular si cuando ocurre a la
explosión
se puede producir una reacción en cadena
y quemarse toda la atmósfera y entonces
decidió que mejor hacia él los cálculos
que no los daba a ninguno de sus
subordinados
cuando acabó la segunda guerra mundial
y estar también entró a trabajar en los
laboratorios de la belle él había estado
trabajando con esos ordenadores ibm en
el proyecto manhattan que que utilizaban
el bit de paridad y lo que se planteaba
es si los ordenadores son capaces de
detectar errores deben ser capaces
también de corregirlos y desarrolló los
primeros códigos correctores de errores
que son los códigos jaime bueno y toda
una teoría alrededor de esto a lo mejor
habéis oído hablar de la distancia
jamming etcétera en realidad todos los
códigos correctores nacen de los
trabajos hechos por jamming en ese
periodo entre el final de la segunda
guerra mundial y el año 1950 que es
cuando publicó el primer código o
corrector los códigos correctores se
suelen indicar también a veces con las
siglas fec códigos y las siglas vienen
de forward error correction corrección
de errores hacia adelante
lo de hacia adelante viene un poco en el
sentido de que no tienes que pedir que
te envíen nada sino que con lo que
tienes te apañas y lo arreglas por eso
lo de hacia adelante
entonces simplemente también pues eso
que sepáis la terminología código fec es
un código corrector de errores nada más
bueno como digo los códigos de jamming
fueron del año 50 fueron los primeros
unos cinco años eso solamente se
utilizan hoy en día en los chips de
memoria a los que tienen corrección de
errores famosos chips de memoria etc que
no se suelen utilizar en ordenadores
normales pero sí en algunos servidores
en el año 55 aparecieron los códigos
convolución alex que se utilizan
actualmente en redes gsm y en redes
inalámbricas entonces inalámbricas que
no sean el estándar n y el ac y los
estándares de redes wi-fi más antiguos
utilizan los códigos convolución alex en
el año 60 aparecieron los códigos red
solomon
qué podemos podéis imaginar fueron
desarrollo de estos dos señores y que
son los que se utilizan actualmente en
todas esas cosas que veis ahí
y también en los años 60
me parece que pone el año 63
un profesor del mit del instituto de
tecnología de massachusetts llamado
gallagher desarrolló unos códigos que se
denominaron en low density parity check
esto fue en el año 63 ya que hay también
una historia curiosa esos códigos
desarrollados por gallagher que son más
eficientes que todos los anteriores eran
demasiado complejos en aquel entonces en
el año 73 para ser implementados en
hardware y fueron desestimados porque no
eran prácticos no se podían utilizar si
éstos innovan en hardware nos sirve
porque es demasiado lento el software se
puede hacer todo obviamente cualquier
algoritmo por complejo que sea se puede
hacer pero es tarda demasiado y si no va
en tiempo real para comunicaciones no
sirve entonces se olvidaron y nadie se
acordaba de ellos y en los años 90 pues
alguien desenterrando viejas tesis vio
que estaba en esos códigos que eran más
eficientes que eran muy complejos pero
ya las tecnologías se habían
evolucionado y ya se podían implementar
en
entonces a partir del año 2000 2010 ya
han aparecido y de hecho como veis ahí
pues todos los estándares 802 11n ya sé
que son los dos últimos de redes
inalámbricas o el 10 gb va a serte que
comentaba antes o los últimos estándares
de televisión digital tanto por cable
como por adsl utilizan los códigos
gallagher
una diapositiva que vimos acordáis el
ejemplo aquel de adsl de joan row la que
os estuve comentando pues si volvéis
ahora allí y veis en los contadores
había un sitio por allí que ponía ese
perdón rs error conexión
el adsl normal o sea los últimos no pero
los que estamos usando todavía que no
son los últimos sino los penúltimos usan
los códigos read sólo mal
eso es lo que utilizaba en el adsl de
johann por la tele
pues bien un ejemplo
concreto de estos códigos gallagher lo
tenemos en los estándares de redes
inalámbricas que usamos la mayoría hoy
en día los cn y los hace
en esta tabla tenéis mostrados los
diferentes las diferentes modulaciones
que utiliza 802 11n y hace así ahora
estáis conectados por la wifi al late
que hay aquí arriba este es de los me
parece que es el único que tenemos en
toda la universidad que soporta se vale
entonces puede que estéis conectados en
cualquiera de estas modulaciones
normalmente en las últimas de la lista
porque estáis a muy poca distancia
tenéis una señal de mucha calidad
entonces normalmente tendréis mucha
velocidad cuando nos conectamos con el
negocio es que modulación de utilizar
pero además de negociar que eso conlleva
como ya sabéis los bits por símbolo
la velocidad del canal es de 40
megahercios el canal de doble anchuras y
desconecta jce perdón y si sos y os
planteáis a 5 gigas los conectados a 2.4
no pero bueno suponiendo que os habéis
conectado a 5 gigas estaréis usando un
canal de 40 megahercios de doble anchura
vale y según la modulación que estéis
utilizando perdón el canal de 40 megas y
os sea la modulación que sea estáis
usando 30 mega símbolos por segundo ya
sabéis que el número de símbolos el
caudal en símbolos tiene que ser algo
menor que la anchura del canal en este
caso son 30 mega símbolos por segundo y
entonces uno diría vale pues 30 mega
símbolos por segundo y un bit por
símbolo me dará 30 megabits
si te conectas de esta forma así si no
pues sería el 30 por 260 vale y fijaros
que aquí en la modulación coupé seca hay
dos posibilidades cuál es la diferencia
la diferencia viene aquí
la diferencia es que utilizas o bien un
código gallagher de redundancia 1 / 2 es
decir de cada 2 bits 1 son datos y el
otro es overhead o usas un código
gallagher en asia tres cuartos de cada
cuatro bits 3 son datos y unos overhead
entonces según estás en este caso o en
este su caudal útil es de 30 o de 45
megabits por segundo si así estás con un
overhead del 50% el caudal que en
principio sería 30 por 260 se queda en
30
vale
entonces en todos los casos como podéis
ver el significado de esta columna es el
mismo nos está diciendo cuál es la
eficiencia relativa en términos de
cantidad de información útil por
información total transmitida
entonces a medida que la calidad de la
señal va mejorando
tu móvil negocia con el ape cuál de los
diferentes modos ms ese esquema de
codificación y modulación va a utilizar
y tiene 910 posibilidades desde la peor
que sería usar la modulación bps acá un
bit por símbolo con código fec de un
medio por tanto el caudal sería 15
megabits por segundo hasta la mejor de
todas que es modulación 256 48 bits por
símbolo
redundancia 5 sextos entonces haciendo
las cuentas no salen los 200 megabits
por segundo que eso es lo que os diría
windows que estáis conectados
en el icono de windows dios dice que la
velocidad son 150 pues seguramente
estáis conectados en el imss 7 digo
seguramente porque a lo mejor estás con
un canal depende del caso puede ser un
canal de 80 y también el canal de 80 las
combinaciones son diferentes y hay a lo
mejor es una combinación el canal de 80
que también está a 150 megabits no lo sé
pero podría hacer
en nuestro caso como 5 gigahercios
trabajamos con canales de 40 podéis ver
directamente esta tabla reducirlo
entonces insisto según la relación
señal/ruido que está midiendo según la
calidad la intensidad y calidad de la
señal que está midiendo vuestro móvil él
negocia primero una modulación y segundo
un nivel de redundancia
en el código galería
por ponernos en el caso del 8 y 9 si las
situaciones idóneas puede ir con un
código gallagher de menos o verger si la
situación no es tan buena es un poco más
ruidosa pues tiene que ir a un código
gallagher
un poco más más costoso pero le vale la
pena
preguntas
bueno esto era un ejemplo de más si
vamos que en fibra óptica también se
utiliza códigos correctores
tan es así que la biblioteca
normalmente fibra óptica monomodo
estamos hablando de conexiones de larga
distancia que es donde realmente más
interesan todas estas cosas pues la itu
ha desarrollado incluso un estándar para
el uso de los códigos fec en fibra
óptica
y esto como digo es lo habitual hoy en
día con eso que se consigue pues en la
siguiente diapositiva tenemos la
respuesta aquí tenéis un ejemplo con
datos reales de cuáles
la tasa de error que se mide
en función de la relación señal/ruido en
la fibra óptica también la relación
señal/ruido importa acorde al que estaba
aquello de que puedes poner
amplificadores hasta que ya no puedes
poner más porque porque ya no se
entienden los datos tienes que poner un
repetidor vale porque ya la relación
señal/ruido ha bajado tanto que empiezas
a tener riesgo de demasiados errores
pues bien si yo quiero tener una tasa de
error supongamos de 10 a la menos 8 ya
sabéis que en fibra óptica normalmente
sería mucho menos que eso sería
estaríamos necesarios pero vamos quedan
10 al menos 8 si no usó ningún código
corrector necesito una relación
señal/ruido de 12 decibelios
si pongo un código corrector que tan
solo me cuesta un 15 por ciento de
overhead sea solo pierdo un 15 por
ciento del caudal útil puedo bajar
el requerimiento en la relación
señal/ruido al nueve o nueve con algo
decibelios
estos tres decibelios significa que
puedo llegar el doble de lejos o puedo
transmitir a un caudal no lo sé si es el
doble el que sea superior seguramente
muy superior a un 1.5 por ciento es
decir me sale rentable vale pagó un
precio pero pero lo amortizó con creces
y por supuesto si estoy dispuesto a usar
un código corrector con un mayor o
berger como lo de antes puedo tolerar
una
peor relación señal/ruido
o puedo aspirar a tener una menor tasa
de error imaginaros que mi requerimiento
fuera 10 a la menos 12
pues eso significa que en una situación
sin código corrector tendría que exigir
una relación señal/ruido de más de 14 y
en cambio con este código corrector me
puedo conformar con una relación
señal/ruido de 8
17 y medio
5.0 / 5 (0 votes)