fbpx
Noticias

Artículo: Neutralidad De Red Y Control De Tráfico De Datos

1.- Introducción

 

Los últimos meses, han sido para Chile muy turbulentos en el ámbito informático. Varios temas de suma importancia han sido puestos sobre el tapete de la discusión política y pública. Nuevos conceptos, hasta ahora ajenos al dominio público, comienzan a surgir: Banda Ancha, Neutralidad, acuerdos de Cooperación, calidad mínima de servicios y tarifas, etc.

 

Claramente, estos temas pueden definir el futuro próximo de nuestra vida diaria como usuarios de tecnología y telecomunicaciones y, por lo tanto, es imprescindible conocerlos para así poder actuar o por lo menos entender en qué estamos insertos.

 

Iniciativas como «Neutralidad SI!» y muchos blogs chilenos, han surgido y han ayudado a informar sobre los conceptos mencionados para así generar discusión. Información, participación, difusión, coordinación y acción, han sido elementos que han cambiado el modo en que la sociedad civil esta participando en las decisiones del gobierno y qué mejor terreno que el mismísimo Internet para que proliferen iniciativas.

 

Si bien, el concepto de neutralidad ya ha sido tratado con anterioridad en nuestro Sitio, la idea es complementarlo con algunos nuevos conceptos, ya que éste sirve de trasfondo para el objetivo del presente artículo: las tecnologías del Moldeado del Tráfico o Traffic Shaping.

 

Existen pruebas concretas de ciertas técnicas que han comenzado a utilizar los Proveedores de Internet (ISP) en Chile, tales como VTR, para poder controlar el contenido descargado a través de métodos p2p. La primera generación de máquinas que permiten controlar el tráfico ya está desplegada en nuestro país, pero, ¿cómo funcionan? ¿Cuáles son sus potenciales usos? ¿Cuál es el futuro de esta tecnología?

 

En este artículo, trataremos la historia, el presente y el futuro de estas tecnologías que ayudan a los Proveedores de Internet a regular el flujo de datos. También veremos las justificaciones y los potenciales usos del Traffic Shaping. Conoceremos los puntos de vista de ambos bandos, el del ISP y el del usuario, y profundizaremos las implicancias de la nueva tecnología llamada Deep Packet Inspection o Inspección Profunda de Paquetes que promete ser la panacea para unos y un verdadero dolor de cabeza para otros.

El Poder de los Proveedores

Se podría decir que Internet es de dominio público ya que cualquiera puede acceder a él sin tener que pagar por los contenidos «comunes», como ver el clima o leer el diario, o los servicios que usan Internet, ya sean correos electrónicos o mensajería instantánea. Se da por sentado además, que el contenido se va a desplegar a la mayor velocidad posible, sea cual sea el sitio.

 

Pero, alguien tiene que proveer el acceso a estas redes. Éste es el trabajo de los ISPInternet Service Provider«) o Proveedores de Internet. Ellos deben garantizar la comunicación a cualquier hora y cualquier lugar, al contenido que se desee, a través de una renta mensual como pago por los servicios entregados.

 

El proveedor debería contar con un ancho de banda que permita cumplir con los requerimientos de todos sus clientes conectados simultáneamente, pero, lo que en realidad hacen, es calcular las demandas máximas teóricas que pudieran tener y «sobrevender» el ancho de banda, poniéndose al resguardo de no utilizarlo completamente en todo momento. Esto es algo similar a lo que las aerolíneas hacen al sobrevender los pasajes para aprovechar al máximo la capacidad y no viajar con asientos vacíos.

 

Métodos para manejar esta demanda hay varios, desde no hacer nada y dejar que las líneas colapsen de vez en cuando, a sistemas avanzados de filtrado y modelado para evitar el colapso de la infraestructura. Esta necesidad de garantizar el correcto funcionamiento de las redes fue resuelta con un método conocido como Traffic Shaping (explicado más adelante). Este método, permite al ISP decidir que paquetes son más importantes y requieren una mayor prioridad en la transmisión y cuales pueden ser retrasados.

 

Pero, ¿quién decide que paquete es importante para el usuario? En la actualidad no hay ningún reglamento o código que rija las decisiones que toman los ISP con respecto al flujo o la calidad mínima que deban entregar a sus clientes. Las decisiones que toman van más relacionadas con sacar ventajas comparativas frente a los otros proveedores y no con miras al beneficio del usuario.

 

¿Qué pasaría si un día un ISP se rehúsa a dar el servicio?, ¿bloquea algunos servicios? o ¿cobra más por servicios que antes eran «gratis»?

 

Algunas personas se dieron cuenta del enorme poder que en la actualidad tienen los ISP y esto no sólo sucede en Chile, sino que en todo el mundo. Y, ya que Internet es la interconexión de redes globales, es un potencial peligro para cualquier usuario del mundo.

Algunas Definiciones

Lamentablemente, no podemos continuar con este artículo sin antes revisar algunos conceptos básicos que nos permitan hablar el mismo idioma. Es por ello, que esta sección la dedicaremos a presentar tales conceptos.

 

a.- Neutralidad de la Red

 

Se podría definir la neutralidad como un principio ético que pretende asegurar la libertad y la igualdad de los usuarios y proveedores de Internet.

 

Los principios de la Neutralidad de La Red son los siguientes:

 

1.- Proveer acceso igualitario a todos los Sitios Web. Los ISP no podrán dar trato «preferencial» a algunos sitios. También, los contenidos deben ser tratados de igual forma, es decir, por ejemplo, un email con una imagen adjunta no debe llegar antes que un email con un MP3 adjunto.

 

2.- Potenciar la creatividad y la innovación económica. La gente debe decidir que Sitios son los más populares, no los ISP.

 

3.- Acoger la participación democrática de los ciudadanos. Cualquier persona debe ser capaz de acceder a cualquier Sitio Web, independiente de su origen. Un ISP no debe bloquear el acceso a un Sitio de la competencia o bloquear Sitios por motivos políticos.

 

Como bien dijo Vint Cerf, co-inventor del Protocolo de Internet,

 

«Internet fue diseñado sin barreras para los nuevos contenidos o servicios. Es necesario asegurar esta neutralidad a través de algún tipo de reglamento para garantizar que Internet continúe prosperando».

 

 

«Video que busca apoyo a Neutralidad de la Red»

b.- Traffic Shaping

 

El  «Traffic Shaping» o «moldeado de tráfico«, se trata de una técnica que permite controlar el tráfico de una red de ordenadores para optimizar o garantizar su funcionamiento, las bajas latencias y/o el ancho de banda. Esta es una de las tantas técnicas para garantizar Calidad de ServicioQoS«), explicado más adelante. Así, proporciona un sistema para controlar el volumen de tráfico que es enviado en una red, así como su frecuencia. Aunque es un método para mejorar los protocolos de red, puede ser utilizado para limitar o garantizar cierto tipo de paquetes o tráfico. Por lo tanto, traffic shaping no e
s necesariamente malo y es aquí donde se defienden los ISP, ya que lo consideran indispensable para el correcto funcionamiento de la red. Claro que si el ISP crea reglas demasiado estrictas o restrictivas, puede verse seriamente afectada la calidad del enlace al usuario.

 

En la actualidad, la mayoría, por no decir el 100% de los ISP, tienen alguna forma de moldeado de tráfico operando, ya que algunos estudios prueban que una red sin moldeado requiere el doble de ancho de banda que una con moldeado activo.

 

Cuando una persona carga cualquier página Web, se realiza un intercambio de datos entre el Computador y el ISP, el cual, a su vez, pide los datos al Servidor que aloja la página. Estos datos viajan a través de la red en forma de paquetes. Un paquete consta de una cabecera que es la encargada de identificar al paquete y los datos.

 

La función de estos servidores de moldeado es básicamente priorizar paquetes. Las máquinas de Traffic Shaping detectan el contenido del paquete con una serie de técnicas y exactitudes, y basados en perfiles creados por los proveedores, pueden regular el flujo de cierto tipo de datos. Por ejemplo, en horas peak, pueden disminuir la velocidad de conexión de los videos en Youtube o de las conexiones p2p para darle prioridad a la navegación o a la mensajería instantánea y posteriormente, una vez disminuida la demanda, volver los flujos normales.

 

La demanda de datos en la actualidad, puede llegar a saturar a los proveedores que ven en el traffic shaping la única solución para evitar el eventual colapso de la infraestructura. Videos online, juegos, p2p, VoIP, etc., todos ellos  consumen mucho ancho de banda o requieren latencias muy bajas e influyen en la calidad y velocidad de otros servicios.

 

Entonces, para clasificar los paquetes, se debe conocer el contenido. Lo que actualmente hacen la mayoría de los proveedores es extraer la información contenida en la cabecera de cada paquete que usualmente anuncia el puerto al que va dirigido en el destinatario. La otra alternativa es extraer la información de la cabecera que indica la firma del programa que pide el paquete. Veamos un ejemplo para entender un poco más este concepto.

 

Si se quiere bajar un archivo torrent, y la configuración por defecto («default«) del cliente torrent es el puerto 6881, entonces, el proveedor de Internet puede detectar fácilmente que ese paquete que trae en su encabezado la información del puerto 6881 corresponde a un cliente de torrent. Ahora bien, si el usuario le dice al cliente de torrent que quiere que trabaje bajo el puerto 21, que es frecuentemente asociado a un ftp, se podría lograr «engañar» al sistema.

 

Por eso, existe otra técnica por la que el proveedor todavía podría detectar a qué corresponde ese paquete: leyendo en el encabezado la información de la firma que agrega cada programa al trabajar con paquetes. Al igual que los antivirus comprueban las firmas de los programas para asegurar que no son programas maliciosos, estos sistemas toman las firmas de los paquetes en tránsito y leen su información. Entonces, siguiendo con el ejemplo, aunque se cambie el puerto, cada paquete va firmado con el nombre del cliente de torrent, Azureus o BitComet (por ejemplo), y  entonces, el ISP sabe que el paquete también corresponde a torrent. Así, dependiendo de las reglas que el proveedor haya creado para controlar el tráfico, puede disminuir el ancho de banda, darle prioridad muy baja o incluso bloquear ese tipo de paquetes totalmente.

 

Qué método será utilizado para filtrar los paquetes depende del poder de procesamiento de cada máquina de traffic shaping.

 

 

«Más publicidad en favor de la Neutralidad de la Red»

 

c.- Quality of Service (QoS)

 

Es un término usado en telefonía y en el campo de la computación de redes en que se transmiten paquetes de datos, y se refiere a los mecanismos de control de las reservas de los recursos. Calidad de Servicio puede asignar distintas «banderas» o prioridades a usuarios o flujos de datos, o garantizar ciertos niveles de rendimiento mínimo requerido por algunas aplicaciones o por los compromisos adoptados por el proveedor del servicio, siendo el Traffic Shaping uno de los métodos para el control de estas reservas de recursos.

 

Este concepto es importante en la telefonía, aplicaciones en tiempo real, streaming, IP-TV, etc. La idea es garantizar una calidad mínima para el buen funcionamiento de los servicios. A modo de ejemplo, si tenemos un servicio de telefonía lo mínimo que esperamos es que no se corte la voz, no se pierdan fragmentos de conversación o que no haya mucho desfase entre los interlocutores.

 

Si no existiera este concepto, las telefónicas o los ISP podrían abandonar a su suerte a los usuarios y dejar que los servicios se regulen según la demanda en claro desmedro de la calidad en las horas punta. El gran problema se presenta cuando la cantidad de usuarios sobrepasa las capacidades de la infraestructura existente y no hay control. Interrupciones en los servicios, deficiencias e insatisfacción de los usuarios son algunos ejemplos que pueden darse.

 

Debe quedar claro que este concepto no dice relación con la calidad del servicio o lo que el usuario piensa de éste. Es más bien un concepto técnico que incluye ancho de banda mínimo y latencias bajas.

 

d.- VoIP

 

Es simplemente el envío de la voz a través de redes IP. Fue creado en 1973 en el contexto de ARPANET y su principal ventaja es que puede transmitir voz y datos por la misma conexión a Internet de banda ancha, por lo que no requiere de un cableado especial como el teléfono convencional. Esto permite que los costos de éstas llamadas sean muy bajos por que solo requieren un codificador que transforme la voz a datos y luego un decodificador que convierta los datos en voz nuevamente, y este trabajo lo realiza fácilmente un computador. El gran punto en contra que tiene este servicio, es que como los paquetes deben ser entregados en orden secuencial a cómo se van produciendo, requieren altos estándares de QoS.


e.- Minería de Datos

 

Es la extracción de información útil a partir de un tratamiento masivo de datos para un propósito determinado. La minería de datos es utilizada para correlacionar múltiples variables a gran escala, lo que permite realizar perfiles complejos de los sujetos en estudio. La idea principal es captar la mayor cantidad de datos y variables para poder sacar la mayor cantidad de información aplicable. Muy frecuente en el marketing, análisis financiero o en el ámbito científico.

 

Los datos son obtenidos por grandes computadores que permiten realizar múltiples mediciones simultáneas o servidores que registran información de tráfico.

 

f.- DDoS

 

Distributed Denial of ServiceDDoS«) es un tipo de Denial of ServiceDoS«). Es un ataque a un sistema de ordenadores o red que causa que un servicio o recurso sea inaccesible a los usuarios legítimos. Normalmente provoca la pérdida de la conectividad de la red por el consumo del ancho de banda de la conexión de la víctima o sobrecarga de los recursos computacionales del sistema de la víctima.

 

La principal diferencia entre el DoS y el DDoS, es que este úñtimo se trata de un ataque desde múltiples orígenes que se concentran en un solo objetivo. Los virus y gusanos pueden lograr esto ya que a medida que se distribuyen por la red van adicionando nuevos potenciales «atacantes».

Traffic Shaping Mejorado

Imaginen un aparato que pueda manejar el tráfico p2p a distintas horas del día. Un  aparato que sea capaz de permitir a unos usuarios acceder solo a navegación Web y a correo electrónico, mientras a otros «Premium«, que tienen otra tarifa, descargar p2p o usar VoIP. Una máquina con la potencial para filtrar gusanos, virus, spam, DDoS y aún así poder presentar un completo informe a la policía en el caso de investigaciones contra un usuario. Imaginen, además, todo esto en tiempo real y en más de 900.000 usuarios simultáneos. Si pueden formarse una idea de todo lo anterior, recién van a comenzar a comprender el verdadero poder de la «Inspección Profunda de Paquetes» o «Deep Packet Inspection»DPI«). Básicamente es el mismo concepto de Traffic Shaping que ya conocemos pero, con un «pequeño» upgrade.

 

Esta máquina que podría encajar perfectamente en un relato de ciencia ficción, es una realidad. Actualmente, existen dos Empresas que ofrecen este tipo de servicio: Ellacoya y Procera Networks, las cuales proveen estos equipos que son capaces de escanear cada paquete de más de un millón de usuarios simultáneamente, incluso a velocidades de 10 gigabit por segundo o más.

 

Estas empresas promocionan su producto de Moldeado de Tráfico, como una forma para que los ISP puedan dar mejores servicios a sus clientes y crear perfiles diferenciados con tarifas por segmento de consumo. Por ejemplo, la abuelita que solo ve el clima y las noticias por Internet, o que a veces chatea con sus nietos, no tendría por qué pagar lo mismo que paga un «heavy-user» que descarga torrent mientras ve videos en Youtube y conversa a través de VoIP. Por lo tanto, estas máquinas servirían para crear  y ofrecer productos más específicos.

 

Otra de sus capacidades, es la creación de reglas de comportamiento según parámetros determinados por el proveedor, como el tráfico y las horas del día, por poner un ejemplo. Manejar el flujo, de manera adaptable, sería la solución para las congestiones en las horas peak y así poder privilegiar la navegación Web, correo electrónico y mensajería, por sobre los videos en una situación determinada. Servicios que requieren altos estándares de QoS van a tener la garantía de un servicio óptimo, sin importar la saturación de las líneas, gracias a los sistemas de priorización.

 

Como ya habíamos explicado, este método, al igual que el Traffic Shaping tradicional, se basa en el reconocimiento del contenido de los paquetes, sólo que el DPI lleva el concepto de detección del contenido un paso más arriba. Esto no siempre es fácil, ya que como hay métodos para detectar el contenido, también los hay para esconderlo, por lo que programas como eDonkey no revelan en el encabezado información que los descubra.

 

Cuando lo expresado al final del párrafo anterior sucede, ya no se puede buscar sólo en el encabezado, sino que hay que buscar más abajo, en la información misma del paquete. Y, como lo  dice nuestro escudo nacional, «Por la razón o la fuerza«, cuando fallan todos los métodos anteriores hay que recurrir a la fuerza bruta. Ya no hablamos de mirar el contenido de la cabecera o el puerto al que va dirigido el paquete, sino que nos referimos a tomar todos los datos que circulan hacia el destinatario y leerlos detalladamente. La inspección del paquete o del flujo de datos, puede evidenciar el contenido y así filtrarlo o clasificarlo para que cumpla con las reglas del ISP. El servidor DPI puede realizar esto buscando no sólo en un paquete aislado, sino que a través de los flujos de datos identificando patrones predeterminados.

 

Otro punto a favor de estas máquinas, según las Empresas responsables, es que puede detener la propagación de virus o ataques con DDoS ya que permite detectar los paquetes responsables del ataque y bloquearlos. Entonces, serían capaces de detectar el origen del flujo de los datos maliciosos e interrumpirlos, ayudando a identificar al responsable, en una eventual investigación policial. No desinfecta el computador afectado pero sí limita la velocidad de expansión de este tipo de amenazas.

 

Gracias a estas máquinas, se pueden crear nuevos planes de acceso a Internet, que antes no se podían manejar, como por ejemplo basados en el tráfico total, en el horario, en los servicios utilizados, etc., lo que se traduce en un menor costo para el usuario que no requiera un paquete «todo incluido».

 

Como ya se habrán podido dar cuenta, estos servidores manejan una cantidad inimaginable de datos, por lo que son máquinas de un tremendo poder de procesamiento y complejidad, pero por otro lado, de un potencial peligro que hasta el momento solo podemos comenzar a visualizar.

 

Bueno, hasta el momento puras bondades, pero ¿cuáles serían sus desventajas?

 

– Al hacer una diferencia entre los distintos servicios prestados por el proveedor, cambia completamente el concepto de Internet. Se transforma en un canal de servicios y no en un servicio en sí. Al separar Navegación Web de Streaming Multimedia o Mensajería Instantánea de Cámara Web, va a provocar el fin de Internet como lo conocemos. Sería una involución en la riqueza de los contenidos. Las páginas serán creadas ya no bajo el concepto de la velocidad de transferencia, sino que «premium» si puedes ver videos o escuchar música como contenido, o «simple» para texto no enriquecido con multimedia.

 

– Bajar el precio de los planes «recortados» puede significar traspasar esos cobros a los planes «ilimitados» que tendrán que pagar por estos «nuevos» servicios que siempre fueron gratis. Quizás ahora, si se quiere jugar online, se tendrá que pagar la suscripción al Servidor de juegos, más el contrato de Internet y además, un servicio «Premium» para poder tener acceso al servicio de juegos online por parte del proveedor de Internet. Al no existir una clara definición de lo que significa banda ancha, pueden comenzar a aparecer nuevas categorías de facturación y, como los precios los fijaría el proveedor, la suma de los servicios por separado puede terminar siendo mayor que antes.

 

– El DPI reconoce el contenido de los paquetes y es así como logra identificar y filtrar todo el contenido. Entonces, si puede «leer» ese contenido, ¿será capaz de leer los correos de un usuario, ver lo que navega, o incluso escuchar lo que habla? Teóricamente sí. Claro, las Compañías responsables argumentan que no es la finalidad del producto, pero teóricamente sus Servidores son capaces de hacer eso. Algunos gobiernos autoritarios ya se soban las manos por conseguir uno de éstos juguetitos, para que les ayuden a mantener el control del tráfico y llevar la censura a un nivel superior.

 

– Con todo este poder de procesamiento y las nuevas técnicas de «Minería de Datos«, se podrían realizar perfiles de consumo para cada usuario de Internet, lo que puede ser vendido como valiosa información a Empresas de marketing. Si a esto le agregamos la noticia de Microsoft y su sistema de Adware incluido en el kernel, se tiene una maquinaria de propaganda terriblemente efectiva e ineludible.

 

– Una vez conocido el contenido del paquete, pueden crearse reglas que limiten la transmisión de éstos, por ejemplo torrent o video, lo que puede ser bueno para evitar la congestión de otros servicios, pero que puede ser llevado al extremo de conseguir que sean inutilizables por su lentitud.

 

– Esta técnica utiliza la lectura de las firmas que publica el programa que pidió el paquete. Estos servidores pueden leer esa información en las cabeceras de los paquetes y bloquear o retrasar la información que pidió, por ejemplo, un cliente de torrent. Si uno se detiene a pensar esto, uno de los principios en los orígenes de Internet y de la Neutralidad, es la experimentación de nuevos protocolos o servicios. ¿Qué pasaría si un día el ISP considera que una nueva y brillante aplicación es perjudicial para ellos o para el «correcto funcionamiento» de la red? El DPI les da el poder de cortar de raíz el desarrollo de nuevas tecnologías que no sirvan para sus intereses.

 

Una de las justificaciones más recurrentes para promover la implementación de estos sistemas, es el eventual colapso de las redes por el excesivo flujo. Aseguran que esta tecnología ayudaría a descomprimir el flujo en las horas punta. Pero, quizás el problema deba ser visto por otro lado. Las empresas de telecomunicaciones quieren evitar el tener que invertir en infraestructura y mejoramiento de las redes existentes y, por lo tanto, parece ser mejor, para ellas, invertir en un control más efectivo del flujo actual. En otras palabras, en vez de agrandar los colectores de aguas lluvias para la época de invierno, están comprando tapas más resistentes.

 

Muchos dicen que estas Compañías están exagerando el colapso de las redes para poder introducir sus productos al mercado, al indicar que en el futuro, jugar online o conversar por VoIP, será imposible por el lag que se producirá debido a todos los usuarios congestionando los servicios. Incluso, se ha llegado a decir que los ISP que adopten sus tecnologías serán los únicos capaces de cumplir con Calidad de Servicio para que todo funcione adecuadamente. Por otro lado, los proveedores que elijan dejar abiertos sus servicios sin control alguno, no podrán competir con los otros y quedarán fuera del mercado.

 

Uno de los grandes problemas que se vislumbran, es que los grandes proveedores de Internet, como AT&T, adopten esta tecnología, ya que la gran mayoría de los ISP menores (incluyendo los chilenos) arriendan servicios a AT&T y el control, en ese caso, sería en el corazón de la «red de redes«. Ya vimos lo que pasó específicamente con Pearl Jam y AT&T, hace un tiempo atrás. La Empresa era la responsable de la transmisión en vivo a través de Internet y argumentando que ellos eran dueños del contenido transmitido, decidieron cortar y censurar una parte de la presentación del grupo.

 

Por último, manteniendo los precios altos y habiendo poca competencia, se puede mantener el control del mercado ya sea directamente o a través de los ISP locales que subarriendan ancho de banda a los grandes proveedores, lo que finalmente se traduce en una vigilancia de todos los accesos a Internet. Y más aún, si se hace volar la imaginación y se genera un escenario en el cual el proveedor final, por ejemplo AT&T, firma un acuerdo con algunos Sitios a los que les garantiza máxima prioridad a los usuarios que accedan a ellos, el resultado sería que sólo los Sitios que cuenten con presupuesto para pagarle al ISP, lograrían prosperar, mientras que las pequeñas páginas Web «artesanales», o sin fines de lucro, por nombrar algunas, morirían ahogadas por la lentitud de su acceso.

El Panorama en Chile

Ahora que conocemos el panorama mundial y las nuevas tecnologías que existen en relación al Traffic Shaping, veremos un poco de nuestra realidad. Tenemos el conocido caso de VTR y su Shasta 5000 y de los «heavy-user» de Telefónica, que fue revelado por el sitio NeutralidadSI! y por El Antro respectivamente. Pero, ¿qué hay de las otras compañías? No existen pruebas que muestren que tienen esta tecnología implementada, pero sospechas no faltan por parte de sus propios usuarios.

Para entender el cuadro en Chile, debemos conocer quienes son los participantes. En nuestro país existe una buena infraestructura para enlaces nacionales, siendo el problema para los enlaces internacionales.

La «estrella» de este tema es Megavía, la cual es la dueña del mayor enlace directo desde Chile hacia los grandes servidores en el extranjero. El 50% es de propiedad de Telefónica y ésta a su vez, vende ancho de banda a algunos proveedores de Internet finales. Otros actores que tienen sus propios enlaces son VTR y GTD por ejemplo. Casi la totalidad de los otros ISP menores arriendan su ancho de banda a Telefónica.

Posts relacionados

Laboratorio de energía renovable estadounidense se potencia con 44 petaflops de potencia.

MadBoxpc.com

ASUS trae a Chile un completo portafolio de laptops OLED

Mario Rübke

Intel 4004: El chip que inició todo, hace 50 años

Mario Rübke