primera semana de investigacion

25
Seminario de Informática Eliseo Martinez 2004-0021 - 1 - Universidad del Caribe UNICARIBE Estudiante Eliseo Darío Martínez Aquino 2004-0021 Facilitador José Tavarez Materia Pagina de investigación Primera Semana Seminario de Informática Fecha Mayo 2009

Upload: eliseo-martinez

Post on 03-Jul-2015

661 views

Category:

Education


1 download

TRANSCRIPT

Page 1: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 1 -

Universidad del Caribe UNICARIBE

Estudiante Eliseo Darío Martínez Aquino

2004-0021

Facilitador José Tavarez

Materia Pagina de investigación Primera Semana

Seminario de Informática

Fecha Mayo 2009

Page 2: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 2 - INDICE

1) Add-on, - 22 -

2) Agregador, - 24 -

3) Bibliografia, - 25 -

4) Black List, - 13 -

5) Centro de proceso de datos, - 10 -

6) Cookie, - 23 -

7) Cortafuegos, - 20 -

8) Domain Name, - 5 -, pag.

9) Domain Name System, - 6 -, pag.

10) El Protocolo de Control de

Transmisión (TCP), - 14 -

11) Empresas Proveedoras de los

servicios de Hosting, - 13 -

12) Extensible Markup Language

XML, - 24 -

13) File Transfer Protocol, - 13 -

14) Frame, - 19 -

15) Gadget, - 23 -

16) Hosting services provider --

Alojamiento web (Hosting), - 12 -

17) Hypertext Transfer Protocol, - 14 -

18) Hypertext Transfer Protocol

Secure, - 15 -

19) ICANN, - 4 -, Pag.

20) LAN (Local Area Network): Redes

de Área Local, - 21 -

21) Listado de los Protocolos y

Puertos de comunicación, - 16 -

22) Localizador Uniforme de

Recursos, - 16 -

23) Plugin, - 22 -

24) Protocolo de Internet (IP), - 14 -

25) Redifusión web (o sindicación

web), - 23 -

26) Responsable para Republica

Dominicana, Costos y Numeros de

Contactos., - 5 -, pag.

27) RSS, - 23 -

28) Servicio Web, - 9 -

29) Servidor HTTP Apache, - 8 -, pag.

30) Simple Mail Transfer Protocol, -

14 -

31) Skin (software), - 20 -

32) Spam, - 22 -

33) TCP/IP, - 14 -

34) Templates, - 20 -

35) Tipos de registros DNS, - 6 -, pag.

36) Transport Layer Security (SSL), -

15 -

37) VLAN, - 22 -

38) WAMP, - 9 -

39) WAN (Wide Area Network):

Redes de Amplia Cobertura, - 21 -

40) Web Server, - 7 -, pag.

41) World Wide Web (www), - 3 -

42) Zona desmilitarizada( DMZ ), - 20

Page 3: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 3 - World Wide Web (www)

Historia

La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40 sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevantes determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano teórico bajo el nombre de Memex. Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta 1980, con un soporte operativo tecnológico para la distribución de información en redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se materializa la realización práctica de este concepto de incipientes nociones de la Web. En marzo de 1989, Tim Berners Lee, ya como personal de la divisón DD del CERN, redacta la propuesta, que referenciaba a ENQUIRE y describía un sistema de gestión de información más elaborado. No hubo un bautizo oficial o un acuñamiento del término web en esas referencias iniciales utilizándose para tal efecto el término mesh. Sin embargo, el World Wide Web ya había nacido. Con la ayuda de Robert Cailliau, se publicó una propuesta más formal para la world wide web el 12 de noviembre de 1990. Berners-Lee usó un NeXTcube como el primer servidor web del mundo y también escribió el primer navegador web, WorldWideWeb en 1990. En las Navidades del mismo año, Berners-Lee había creado todas las herramientas necesarias para que una web funcionase: el primer navegador web (el cual también era un editor web), el primer servidor web y las primeras páginas web que al mismo tiempo describían el proyecto. El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web al newsgroup alt.hypertext. Esta fecha también señala el debut de la web como un servicio disponible públicamente en Internet. El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos proyectos de la década de los 60, como el Proyecto Xanadu de Ted Nelson y el sistema on-line NLS de Douglas Engelbart. Los dos, Nelson y Engelbart, estaban a su vez inspirados por el ya citado sistema basado en microfilm "memex", de Vannevar Bush. El gran avance de Berners-Lee fue unir hipertexto e Internet. En su libro Weaving the Web (en castellano, Tejiendo la Red), explica que él había sugerido repetidamente que la unión entre las dos tecnologías era posible para miembros de las dos comunidades tecnológicas, pero como nadie aceptó su invitación, decidió, finalmente, hacer frente al proyecto él mismo. En el proceso, desarrolló un sistema de identificadores únicos globales para los recursos web y también: el Uniform Resource Identifier. World Wide Web tenía algunas diferencias de los otros sistemas de hipertexto que estaban disponibles en aquel momento: WWW sólo requería enlaces unidireccionales en vez de los bidireccionales. Esto hacía posible que una persona enlazara a otro recurso sin necesidad de ninguna acción del propietario de ese recurso. Con ello se reducía significativamente la dificultad de implementar servidores web y navegadores (en comparación con los sistemas anteriores), pero en cambio presentaba el problema crónico de los enlaces rotos.

Page 4: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 4 - A diferencia de sus predecesores, como HyperCard, World Wide Web era no-propietario, haciendo posible desarrollar servidores y clientes independientemente y añadir extensiones sin restricciones de licencia. El 30 de abril de 1993, el CERN anunció[7] que la web sería gratuita para todos, sin ningún tipo de honorarios. ViolaWWW fue un navegador bastante popular en los comienzos de la web que estaba basado en el concepto de la herramienta hipertextual de software de Mac denominada HyperCard. Sin embargo, los investigadores generalmente están de acuerdo en que el punto de inflexión de la World Wide Web comenzó con la introducción[8] del navegador[9] web Mosaic en 1993, un navegador gráfico desarrollado por un equipo del NCSA en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen. Funding para Mosaic vino del High-Performance Computing and Communications Initiative, un programa de fondos iniciado por el entonces gobernador Al Gore High Performance Computing and Communication Act of 1991, también conocida como la Gore Bill.[10] Antes del lanzamiento de Mosaic, las páginas web no integraban un amplio entorno gráfico y su popularidad fue menor que otros protocolos anteriores ya en uso sobre Internet, como el protocolo Gopher y WAIS. El interfaz gráfico de usuario de Mosaic permitió a la WWW convertirse en el protocolo de Internet más popular de una manera fulgurante.

ICANN Internet Corporation for Assigned Names and Numbers (ICANN) es una organización sin fines de lucro que opera a nivel internacional, responsable de asignar espacio de direcciones numéricas de protocolo de Internet (IP), identificadores de protocolo y de las funciones de gestión [o administración] del sistema de nombres de dominio de primer nivel genéricos (gTLD) y de códigos de países (ccTLD), así como de la administración del sistema de servidores raíz. Aunque en un principio estos servicios los desempeñaba Internet Assigned Numbers Authority (IANA) y otras entidades bajo contrato con el gobierno de EE.UU., actualmente son responsabilidad de ICANN. Como asociación privada-pública, ICANN está dedicada a preservar la estabilidad operacional de Internet, promover la competencia, lograr una amplia representación de las comunidades mundiales de Internet y desarrollar las normativas adecuadas a su misión por medio de procesos “de abajo hacia arriba” basados en el consenso. Dentro de la estructura de ICANN, los gobiernos y organizaciones de tratados internacionales en asociación con negocios, organizaciones e individuos capacitados trabajan en el desarrollo y sostenimiento de la Internet mundial. La innovación y el constante crecimiento de Internet presentan nuevos desafíos en el mantenimiento de su estabilidad. Por medio del trabajo en conjunto, los participantes de ICANN pueden resolver los asuntos que afectan directamente la misión de coordinación técnica de ICANN. ICANN es quizá el ejemplo más importante de colaboración entre diferentes miembros de la comunidad de Internet, basada en el principio de autorregulación aplicado en la economía de alta tecnología. ICANN está gobernada por una Junta Directiva, de gran diversidad internacional, encargada de supervisar el proceso de desarrollo de normas y políticas. El Director General de ICANN está a la cabeza del personal de diversas nacionalidades que trabaja en tres continentes, y que asegura que ICANN cumpla con su compromiso operacional con la comunidad de Internet. ICANN estableció la competencia en el mercado para los registros de nombres de dominio genéricos de primer nivel (gTLD) al romper el monopolio que existía hasta 1998 lo cual ha dado

Page 5: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 5 - como resultado una reducción del 80% del costo de los nombres de dominio y ahorrado a consumidores y negocios más de mil millones de dólares anuales en las tarifas de registro de dominios. ICANN implementó una Política Uniforme de resolución de controversias de nombre de dominio (UDRP) que se ha usado para resolver más de 5000 controversias sobre los derechos de nombres de dominio. La UDRP se ha diseñado para que sea eficaz y económica. En coordinación con las comunidades técnicas correspondientes y con las partes interesadas, ICANN ha adoptado normas generales para nombres de dominio internacionalizados (IDN), abriendo así el camino para registros de dominios en cientos de idiomas. ICANN introdujo en el año 2000 siete nuevos nombres de dominio genéricos de primer nivel: .aero, .biz, .coop, .info, .museum, .name y .pro. Actualmente, ICANN está explorando la posibilidad de agregar otros. En respuesta a las inquietudes de la comunidad en lo que respecta a privacidad y acceso, ICANN presenta varios seminarios sobre Whois, la base de datos pública de registro de nombres de dominio. Con el desarrollo de IPv6, el nuevo protocolo de numeración de direcciones de IP, la interoperabilidad de la red mundial continúa siendo la misión principal de ICANN.

Responsable para Republica Dominicana, Costos y Numeros de

Contactos.

Domain Name Un dominio es un conjunto de ordenadores conectados en una red que confían a uno de los equipos de dicha red la administración de los usuarios y los privilegios que cada uno de los usuarios tiene en dicha red. Dominios

.web, web es un dominio de internet de nivel superior.

.do, para páginas de República Dominicana

.eu, la región de Europa

.gov y .gob, para Gobierno y Entidades Públicas

.info, para Información

Domain Name System El Domain Name System (DNS) es una base de datos distribuida y jerárquica que almacena información asociada a nombres de dominio en redes como Internet. Aunque como base de datos el DNS es capaz de asociar diferentes tipos de información a cada nombre, los usos más comunes

Page 6: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 6 - son la asignación de nombres de dominio a direcciones IP y la localización de los servidores de correo electrónico de cada dominio. La asignación de nombres a direcciones IP es ciertamente la función más conocida de los protocolos DNS. Por ejemplo, si la dirección IP del sitio FTP de prox.mx es 200.64.128.4, la mayoría de la gente llega a este equipo especificando ftp.prox.mx y no la dirección IP. Además de ser más fácil de recordar, el nombre es más fiable. La dirección numérica podría cambiar por muchas razones, sin que tenga que cambiar el nombre. Inicialmente, el DNS nació de la necesidad de recordar fácilmente los nombres de todos los servidores conectados a Internet. En un inicio, SRI (ahora SRI International) alojaba un archivo llamado HOSTS que contenía todos los nombres de dominio conocidos (técnicamente, este archivo aún existe - la mayoría de los sistemas operativos actuales todavía pueden ser configurados para revisar su archivo hosts). El crecimiento explosivo de la red causó que el sistema de nombres centralizado en el archivo HOSTS no resultara práctico y en 1983, Paul Mockapetris publicó los RFCs 882 y 883 definiendo lo que hoy en día ha evolucionado hacia el DNS moderno. (Estos RFCs han quedado obsoletos por la publicación en 1987 de los RFCs 1034 y 1035).

Tipos de registros DNS

A = Address – (Dirección) Este registro se usa para traducir nombres de hosts a direcciones IP.

CNAME = Canonical Name – (Nombre Canónico) Se usa para crear nombres de hosts adicionales, o alias, para los hosts de un dominio. Es usado cuando se estan corriendo multiples servicios (como ftp y web server) en un servidor con una sola direccion ip. Cada servicio tiene su propia entrada de DNS (como ftp.ejemplo.com. y www.ejemplo.com.). esto también es usado cuando corres múltiples servidores http, con diferente nombres, sobre el mismo host.

NS = Name Server – (Servidor de Nombres) Define la asociación que existe entre un nombre de dominio y los servidores de nombres que almacenan la información de dicho dominio. Cada dominio se puede asociar a una cantidad cualquiera de servidores de nombres.

MX (registro) = Mail Exchange – (Registro de Intercambio de Correo) Asocia un nombre de dominio a una lista de servidores de intercambio de correo para ese dominio.

PTR = Pointer – (Indicador) También conocido como 'registro inverso', funciona a la inversa del registro A, traduciendo IPs en nombres de dominio.

SOA = Start of authority – (Autoridad de la zona) Proporciona información sobre la zona. HINFO = Host INFOrmation – (Información del sistema informático) Descripción del host,

permite que la gente conozca el tipo de máquina y sistema operativo al que corresponde un dominio.

TXT = TeXT - ( Información textual) Permite a los dominios identificarse de modos arbitrarios.

LOC = LOCalización - Permite indicar las coordenadas del dominio. WKS - Generalización del registro MX para indicar los servicios que ofrece el dominio.

Obsoleto en favor de SRV. SRV = SeRVicios - Permite indicar los servicios que ofrece el dominio. RFC 2782 SPF = Sender Policy Framework - Ayuda a combatir el Spam. En este registro se especifica

cual o cuales hosts están autorizados a enviar correo desde el dominio dado. El servidor

Page 7: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 7 - que recibe consulta el SPF para comparar la IP desde la cual le llega, con los datos de este registro.

Web Server Un servidor web es un programa que implementa el protocolo HTTP (HyperText Transfer Protocol). Este protocolo pertenece a la capa de aplicación del modelo OSI y está diseñado para transferir lo que llamamos hipertextos, páginas web o páginas HTML (HyperText Markup Language): textos complejos con enlaces, figuras, formularios, botones y objetos incrustados como animaciones o reproductores de música. Es un programa que se ejecuta continuamente en un ordenador (también se emplea el término para referirse al ordenador que lo ejecuta), manteniéndose a la espera de peticiones por parte de un cliente (un navegador web) y que responde a estas peticiones adecuadamente, mediante una página web que se exhibirá en el navegador o mostrando el respectivo mensaje si se detectó algún error. Instalar un servidor web en nuestro PC nos permitirá, entre otras cosas, poder montar nuestra propia página web sin necesidad de contratar hosting, probar nuestros desarrollos vía local, acceder a los archivos de nuestro equipo desde un PC remoto (aunque para esto existen otras opciones, como utilizar un servidor FTP) o utilizar alguno de los programas basados en web tan interesantes que están viendo la luz últimamente. El problema de usar nuestro ordenador como servidor web es que conviene tenerlo encendido permanentemente (para que esté accesible de forma continua como la mayoría de los sitios webs), con el consiguiente coste debido al consumo de electricidad (conviene tener en cuenta que hay alojamientos web gratuitos, incluso sin publicidad y con interesantes funciones). Sin embargo, el hecho de que HTTP y HTML estén íntimamente ligados no debe dar lugar a confundir ambos términos. HTML es un lenguaje de marcas y HTTP es un protocolo. Un servidor web se mantiene a la espera de peticiones HTTP por parte de un cliente HTTP que solemos conocer como navegador. El cliente realiza una petición al servidor y éste le responde con el contenido que el cliente solicita. A modo de ejemplo, al teclear www.wikipedia.org en nuestro navegador, éste realiza una petición HTTP al servidor de dicha dirección. El servidor responde al cliente enviando el código HTML de la página; el cliente, una vez recibido el código, lo interpreta y lo exhibe en pantalla. Como vemos con este ejemplo, el cliente es el encargado de interpretar el código HTML, es decir, de mostrar las fuentes, los colores y la disposición de los textos y objetos de la página; el servidor tan sólo se limita a transferir el código de la página sin llevar a cabo ninguna interpretación de la misma. Sobre el servicio web clásico podemos disponer de aplicaciones web. Éstas son porciones de código que se ejecutan cuando se realizan ciertas peticiones o respuestas HTTP. Hay que distinguir entre:

Aplicaciones en el lado del cliente: el cliente web es el encargado de ejecutarlas en la máquina del usuario. Son las aplicaciones tipo Java o Javascript: el servidor proporciona el código de las aplicaciones al cliente y éste, mediante el navegador, las ejecuta. Es necesario, por tanto, que el cliente disponga de un navegador con capacidad para ejecutar aplicaciones (también llamadas scripts). Comúnmente, los navegadores permiten ejecutar aplicaciones escritas en lenguaje javascript y java, aunque pueden añadirse más lenguajes mediante el uso de plugins.

Page 8: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 8 - Aplicaciones en el lado del servidor: el servidor web ejecuta la aplicación; ésta, una vez

ejecutada, genera cierto código HTML; el servidor toma este código recién creado y lo envía al cliente por medio del protocolo HTTP.

Las aplicaciones de servidor muchas veces suelen ser la mejor opción para realizar aplicaciones web. La razón es que, al ejecutarse ésta en el servidor y no en la máquina del cliente, éste no necesita ninguna capacidad añadida, como sí ocurre en el caso de querer ejecutar aplicaciones javascript o java. Así pues, cualquier cliente dotado de un navegador web básico puede utilizar este tipo de aplicaciones. Algunos conceptos relacionados con las aplicaciones web son:

PHP ASP Perl CGI .NET JSP (Tecnología Java ) CF (Adobe Coldfusion)

Algunos servidores web importantes son:

Apache IIS Cherokee

Otros servidores, más simples pero más rápidos, son:

lighttpd thttpd

Servidor HTTP Apache El servidor HTTP Apache es un servidor web HTTP de código abierto para plataformas Unix (BSD, GNU/Linux, etc.), Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1[1] y la noción de sitio virtual. Cuando comenzó su desarrollo en 1995 se basó inicialmente en código del popular NCSA HTTPd 1.3, pero más tarde fue reescrito por completo. Su nombre se debe a que Behelendorf eligió ese nombre porque quería que tuviese la connotación de algo que es firme y enérgico pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación de su grupo era que llegasen las empresas y "civilizasen" el paisaje que habían creado los primeros ingenieros de internet. Además Apache consistía solamente en un conjunto de parches a aplicar al servidor de NCSA. Era, en inglés, a patchy server (un servidor "parcheado"). El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation. Apache presenta entre otras características mensajes de error altamente configurables, bases de datos de autenticación y negociado de contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en su configuración.

Page 9: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 9 - Apache tiene amplia aceptación en la red: desde 1996, Apache, es el servidor HTTP más usado. Alcanzó su máxima cuota de mercado en 2005 siendo el servidor empleado en el 70% de los sitios web en el mundo, sin embargo ha sufrido un descenso en su cuota de mercado en los últimos años. (Estadísticas históricas y de uso diario proporcionadas por Netcraft[2] ). La mayoría de las vulnerabilidades de la seguridad descubiertas y resueltas tan sólo pueden ser aprovechadas por usuarios locales y no remotamente. Sin embargo, algunas se pueden accionar remotamente en ciertas situaciones, o explotar por los usuarios locales malévolos en las disposiciones de recibimiento compartidas que utilizan PHP como módulo de Apache.

Servicio Web Un servicio web (en inglés Web service) es un conjunto de protocolos y estándares que sirven para intercambiar datos entre aplicaciones. Distintas aplicaciones de software desarrolladas en lenguajes de programación diferentes, y ejecutadas sobre cualquier plataforma, pueden utilizar los servicios web para intercambiar datos en redes de ordenadores como Internet. La interoperabilidad se consigue mediante la adopción de estándares abiertos. Las organizaciones OASIS y W3C son los comités responsables de la arquitectura y reglamentación de los servicios Web. Para mejorar la interoperabilidad entre distintas implementaciones de servicios Web se ha creado el organismo WS-I, encargado de desarrollar diversos perfiles para definir de manera más exhaustiva estos estándares.

Ventajas de los servicios Web

Aportan interoperabilidad entre aplicaciones de software independientemente de sus propiedades o de las plataformas sobre las que se instalen.

Los servicios Web fomentan los estándares y protocolos basados en texto, que hacen más fácil acceder a su contenido y entender su funcionamiento.

Al apoyarse en HTTP, los servicios Web pueden aprovecharse de los sistemas de seguridad firewall sin necesidad de cambiar las reglas de filtrado.

Permiten que servicios y software de diferentes compañías ubicadas en diferentes lugares geográficos puedan ser combinados fácilmente para proveer servicios integrados.

Permiten la interoperabilidad entre plataformas de distintos fabricantes por medio de protocolos estándar y abiertos. Las especificaciones son gestionadas por una organización abierta, la W3C, por tanto no hay secretismos por intereses particulares de fabricantes concretos y se garantiza la plena interoperabilidad entre aplicaciones.

WAMP Es el acrónimo usado para describir un sistema de infraestructura de internet que usa las siguientes herramientas: Windows, como sistema operativo; Apache, como servidor web; MySQL, como gestor de bases de datos; PHP (generalmente), Perl, o Python, como lenguajes de programación.

Page 10: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 10 - El uso de un WAMP permite servir páginas html a internet, además de poder gestionar datos en ellas, al mismo tiempo un WAMP, proporciona lenguajes de programación para desarrollar aplicaciones web. LAMP es el sistema análogo que corre bajo ambiente Linux MAMP es el sistema análogo que corre bajo ambiente Mac

Centro de proceso de datos

Se denomina centro de procesamiento de datos a aquella ubicación donde se concentran

todos los recursos necesarios para el procesamiento de información de una organización.

También se conoce como centro de cómputo (Iberoamérica) o centro de cálculo (España).

Dichos recursos consisten esencialmente en unas dependencias debidamente

acondicionadas, computadoras y redes de comunicaciones.

Los centros de procesamiento de datos se suelen denominar por su acrónimo: CPD. En

inglés, se denomina Data Center.

Un CPD es un edificio o sala de gran tamaño usada para mantener en él una gran cantidad

de equipamiento electrónico. Suelen ser creados y mantenidos por grandes organizaciones

con objeto de tener acceso a la información necesaria para sus operaciones. Por ejemplo, un

banco puede tener un data center con el propósito de almacenar todos los datos de sus

clientes y las operaciones que estos realizan sobre sus cuentas. Prácticamente todas las

compañías que son medianas o grandes tienen algún tipo de CPD, mientras que las más

grandes llegan a tener varios.

Entre los factores más importantes que motivan la creación de un CPD se puede destacar el

garantizar la continuidad del servicio a clientes, empleados, ciudadanos, proveedores y

empresas colaboradoras, pues en estos ámbitos es muy importante la protección física de

los equipos informáticos o de comunicaciones implicados, así como servidores de bases de

datos que puedan contener información crítica.

Diseño

El diseño de un centro de procesamiento de datos comienza por la elección de su ubicación

geográfica, y requiere un balance entre diversos factores:

Coste económico: coste del terreno, impuestos municipales, seguros, etc. Infraestructuras disponibles en las cercanías: energía eléctrica, carreteras, acometidas de

electricidad, centralitas de telecomunicaciones, bomberos, etc. Riesgo: posibilidad de inundaciones, incendios, robos, terremotos, etc.

Una vez seleccionada la ubicación geográfica es necesario encontrar unas dependencias

adecuadas para su finalidad, ya se trate de un local de nueva construcción u otro ya

existente a comprar o alquilar. Algunos requisitos de las dependencias son:

Page 11: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 11 - Doble acometida eléctrica. Muelle de carga y descarga. Montacargas y puertas anchas. Altura suficiente de las plantas. Medidas de seguridad en caso de incendio o inundación: drenajes, extintores, vías de

evacuación, puertas ignífugas, etc. Aire acondicionado, teniendo en cuenta que se usará para la refrigeración de

equipamiento informático. Almacenes. Etc.

Aún cuando se disponga del local adecuado, siempre es necesario algún despliegue de

infraestructuras en su interior:

Falsos suelos y falsos techos. Cableado de red y teléfono. Doble cableado eléctrico. Generadores y cuadros de distribución eléctrica. Acondicionamiento de salas. Instalación de alarmas, control de temperatura y humedad con avisos SNMP o SMTP. Etc.

Una parte especialmente importante de estas infraestructuras son aquellas destinadas a la

seguridad física de la instalación, lo que incluye:

Cerraduras eléctromagnéticas. Torniquetes. Cámaras de seguridad. Detectores de movimiento. Tarjetas de identificación. Etc.

Una vez acondicionado el habitáculo se procede a la instalación de las computadoras, las

redes de área local, etc. Esta tarea requiere un diseño lógico de redes y entornos, sobre todo

en aras a la seguridad. Algunas actuaciones son:

Creación de zonas desmilitarizadas (DMZ). Segmentación de redes locales y creación de redes virtuales (VLAN). Despliegue y configuración de la electrónica de red: pasarelas, encaminadores,

conmutadores, etc. Creación de los entornos de explotación, pre-explotación, desarrollo de aplicaciones y

gestión en red. Creación de la red de almacenamiento. Instalación y configuración de los servidores y periféricos. Etc.

Page 12: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 12 - Generalmente, todos los grandes servidores se suelen concentrar en una sala denominada

sala fría, nevera o pecera (o site). Esta sala requiere un sistema específico de refrigeración

para mantener una temperatura baja (entre 21 y 23 grados centígrados*), necesaria para

evitar averías en las computadoras a causa del sobrecalentamiento.

Según las normas internacionales la temperatura exacta debe ser 22.3 grados centígrados.

La "pecera" suele contar con medidas estrictas de seguridad en el acceso físico, así como

medidas de extinción de incendios adecuadas al material eléctrico, tales como extinción por

agua nebulizada o bien por gas INERGEN, dióxido de carbono o nitrógeno

Hosting services provider --Alojamiento web (Hosting) El alojamiento web (en inglés web hosting) es el servicio que provee a los usuarios de Internet un sistema para poder almacenar información, imágenes, vídeo, o cualquier contenido accesible vía Web. Los Web Host son compañías que proporcionan espacio de un servidor a sus clientes.

Tipos de Alojamiento Web El alojamiento web se divide en seis tipos: gratuitos, compartidos, revendedores, servidores virtuales, servidores dedicados y de colocación.

Alojamiento gratuito: El alojamiento gratuito es extremadamente limitado cuando se lo compara con el alojamiento de pago. Estos servicios generalmente agregan publicidad en los sitios y tienen un espacio y tráfico limitado.

Alojamiento compartido (shared hosting): En este tipo de servicio se alojan clientes de varios sitios en un mismo servidor, gracias a la configuración del programa servidor web. Resulta una alternativa muy buena para pequeños y medianos clientes, es un servicio económico y tiene buen rendimiento.

Alojamiento de imágenes: Este tipo de hospedaje se ofrece para guardar tus imágenes en internet, la mayoría de estos servicios son gratuitos y las páginas se valen de la publicidad colocadas en su página al subir la imagen.

Alojamiento revendedor (reseller): Este servicio de alojamiento está diseñado para grandes usuarios o personas que venden el servicio de Hosting a otras personas. Estos paquetes cuentan con gran cantidad de espacio y de dominios disponibles para cada cuenta.

Servidores virtuales (VPS, Virtual Private Server): mediante el uso de una máquina virtual, la empresa ofrece el control de un ordenador aparentemente no compartido. Así se pueden administrar varios dominios de forma fácil y económica, además de elegir los programas que se ejecutan en el servidor. Por ello, es el tipo de producto recomendado para empresas de diseño y programación web.

Servidores dedicados: El término servidor dedicado se refiere a una forma avanzada de alojamiento web en la cual el cliente alquila o compra un ordenador completo, y por tanto tiene el control completo y la responsabilidad de administrarlo. El cuidado físico de la máquina y de la conectividad a Internet es tarea de la empresa de alojamiento, que suele tenerlo en un centro de datos.

Page 13: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 13 - Colocación (o housing): Este servicio consiste básicamente en vender o alquilar un espacio

físico de un centro de datos para que el cliente coloque ahí su propio ordenador. La empresa le da la corriente y la conexión a Internet, pero el ordenador servidor lo elige completamente el usuario (hasta el hardware).

Empresas Proveedoras de los servicios de Hosting Centro de Datos

www.centrodedatos.com Son proveedores de servicios avanzados de datos, ofreciendo desde servicios de alojamiento de servidores (housing / colocation), servidores dedicados (hosting avanzado), servidores dedicados gestionados (managed hosting),o copias de seguridad remotas (remote backups), hasta soluciones avanzadas de Misión Crítica (Clúster de servidores). Abhosting

www.abhosting.com.ar ABHosting es una empresa que se dedica a brindar servicios de internet y de hosting a empresas como a particulares. Hostingplc

www.hostingplc.com Hostigplc.com Es una empresa de hosting 100% venezolana, dedicada al Web hosting de alta calidad. No somos revendedores. Poseemos nuestra propia plataforma con equipos de última generación, con personal profesional capacitado para el monitoreo y atención las 24hrs, los 365dias del año. Brindándole un excelente servicio con los más altos estándares de Latinoamérica.

Black List En Internet, una lista negra o black list es una lista donde se registran las direcciones IPs que generan spam de forma voluntaria o involuntaria. Las blacklist son libres de tal forma que alguien de manera malintencionada puede añadir IPs inocentes e impedir que lleguen correos válidos.

File Transfer Protocol FTP (sigla en inglés de File Transfer Protocol - Protocolo de Transferencia de Archivos) en informática, es un protocolo de red para la transferencia de archivos entre sistemas conectados a una red TCP, basado en la arquitectura cliente-servidor. Desde un equipo cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle archivos, independientemente del sistema operativo utilizado en cada equipo. El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está

Page 14: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 14 - pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el intercambio de información, desde el login y password del usuario en el servidor hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un posible atacante puede capturar este tráfico, acceder al servidor, o apropiarse de los archivos transferidos. Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.

Simple Mail Transfer Protocol Simple Mail Transfer Protocol (SMTP) Protocolo Simple de Transferencia de Correo, es un protocolo de la capa de aplicación. Protocolo de red basado en texto utilizado para el intercambio de mensajes de correo electrónico entre computadoras u otros dispositivos (PDA's, teléfonos móviles, etc.). Está definido en el RFC 2821 y es un estándar oficial de Internet.

TCP/IP son las siglas de Protocolo de Control de Transmisión/Protocolo de Internet (en inglés Transmission Control Protocol/Internet Protocol), un sistema de protocolos que hacen posibles servicios Telnet, FTP, E-mail, y otros entre ordenadores que no pertenecen a la misma red.

El Protocolo de Control de Transmisión (TCP) permite a dos anfitriones establecer una conexión e intercambiar datos. El TCP garantiza la entrega de datos, es decir, que los datos no se pierdan durante la transmisión y también garantiza que los paquetes sean entregados en el mismo orden en el cual fueron enviados.

Protocolo de Internet (IP) utiliza direcciones que son series de cuatro números ocetetos (byte) con un formato de punto decimal, por ejemplo: 69.5.163.59 Los Protocolos de Aplicación como HTTP y FTP se basan y utilizan TCP/IP.

Hypertext Transfer Protocol El protocolo de transferencia de hipertexto (HTTP, HyperText Transfer Protocol) es el protocolo usado en cada transacción de la Web (WWW). HTTP fue desarrollado por el consorcio W3C y la IETF, colaboración que culminó en 1999 con la publicación de una serie de RFC, siendo el más importante de ellos el RFC 2616, que especifica la versión 1.1. HTTP define la sintaxis y la semántica que utilizan los elementos software de la arquitectura web (clientes, servidores, proxies) para comunicarse. Es un protocolo orientado a transacciones y sigue el esquema petición-respuesta entre un cliente y un servidor. Al cliente que efectúa la petición (un navegador o un spider) se lo conoce como "user agent" (agente del usuario). A la información transmitida se la llama recurso y se la identifica mediante un URL. Los recursos pueden ser archivos, el resultado de la ejecución de un programa, una consulta a una base de datos, la traducción automática de un documento, etc.

Page 15: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 15 - HTTP es un protocolo sin estado, es decir, que no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de "sesión", y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.

Hypertext Transfer Protocol Secure Hypertext Transfer Protocol Secure (en español: Protocolo seguro de transferencia de hipertexto), más conocido por sus siglas HTTPS, es un protocolo de red basado en el protocolo HTTP, destinado a la transferencia segura de datos de hipertexto, es decir, es la versión segura de HTTP. El sistema HTTPS utiliza un cifrado basado en las Secure Socket Layers (SSL) para crear un canal cifrado (cuyo nivel de cifrado depende del servidor remoto y del navegador utilizado por el cliente) más apropiado para el tráfico de información sensible que el protocolo HTTP. De este modo se consigue que la información sensible (usuario y claves de paso normalmente) no puede ser usada por un atacante que haya conseguido interceptar la transferencia de datos de la conexión, ya que lo único que obtendrá será un flujo de datos cifrados que le resultará imposible de descifrar. Cabe mencionar que el uso del protocolo HTTPS no impide que se pueda utilizar HTTP. Es aquí, cuando nuestro navegador nos advertirá sobre la carga de elementos no seguros (HTTP), estando conectados a un entorno seguro (HTTPS). Los protocolos HTTPS son utilizados por navegadores como: Safari, Internet Explorer, Mozilla Firefox, Opera y Google Chrome, entre otros. Es utilizado principalmente por entidades bancarias, tiendas en línea, y cualquier tipo de servicio que requiera el envío de datos personales o contraseñas. El puerto estándar para este protocolo es el 443. Para conocer si una página web que estamos visitando, utiliza el protocolo https y es, por tanto, segura en cuanto a la trasmisión de los datos que estamos transcribiendo, debemos observar si en la barra de direcciones de nuestro navegador, aparece https al comienzo, en lugar de http, o sino hacer un scan. Algunos navegadores utilizan un icono (generalmente un candado) en la parte derecha de la barra de direcciones para indicar la existencia de un protocolo de comunicaciones seguro e incluso cambian el color del fondo de la barra de direcciones por amarillo (Firefox) o verde (Internet Explorer) para identificar páginas web seguras.

Transport Layer Security (SSL) Secure Sockets Layer -Protocolo de Capa de Conexión Segura- (SSL) y Transport Layer Security -Seguridad de la Capa de Transporte- (TLS), su sucesor, son protocolos criptográficos que proporcionan comunicaciones seguras por una red, comúnmente Internet. Existen pequeñas diferencias entre SSL 3.0 y TLS 1.0, pero el protocolo permanece sustancialmente igual. El término "SSL" según se usa aquí, se aplica a ambos protocolos a menos que el contexto indique lo contrario.

Page 16: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 16 - Localizador Uniforme de Recursos URL significa Uniform Resource Locator, es decir, localizador uniforme de recurso. Es una secuencia de caracteres, de acuerdo a un formato estándar, que se usa para nombrar recursos, como documentos e imágenes en Internet, por su localización. Los URL fueron una innovación fundamental en la historia de la Internet. Fueron usadas por primera vez por Tim Berners-Lee en 1991, para permitir a los autores de documentos establecer hiperenlaces en la World Wide Web (WWW o Web). Desde 1994, en los estándares de la Internet, el concepto de URL ha sido incorporado dentro del más general de URI (Uniform Resource Identifier - Identificador Uniforme de Recurso), pero el término URL aún se utiliza ampliamente. Aunque nunca fueron mencionadas como tal en ningún estándar, mucha gente cree que las iniciales URL significan Universal Resource Locator (Localizador Universal de Recurso). Esta interpretación puede ser debida al hecho de que, aunque la U en URL siempre ha significado Uniforme, la U de URI significó en un principio Universal, antes de la publicación del RFC 2396. El URL es la cadena de caracteres con la cual se asigna una dirección única a cada uno de los recursos de información disponibles en la Internet. Existe un URL único para cada página de cada uno de los documentos de la World Wide Web, para todos los elementos de Gopher y todos los grupos de debate USENET, y así sucesivamente. El URL de un recurso de información es su dirección en Internet, la cual permite que el navegador la encuentre y la muestre de forma adecuada. Por ello el URL combina el nombre del ordenador que proporciona la información, el directorio donde se encuentra, el nombre del archivo y el protocolo a usar para recuperar los datos.

Listado de los Protocolos y Puertos de comunicación Continuando con el tema de la semana pasada, esta semana y la próxima indicaré una serie de Protocolos y Puertos de comunicación que se emplean en Internet, para que podamos configurar mejor nuestro Router o nuestro Cortafuegos, evitando así accesos no deseados.

1º) Puertos más utilizados:

Puerto Protocolo/

Programa Descripción

9 discard Basura (Dev/Null)

11 sysstat

Es un servicio Unix que realiza un listado de todos los procesos

que se generan en la máquina. Esto le proporciona al usuario,

una gran cantidad de información con la que consigue conocer

las vulnerabilidades de los programas que están instalados en la

máquina o las cuentas del usuario.

13 daytime Es un servicio que proporciona la fecha y hora del sistema.

15 netstat

Comentado ya en la semana anterior de Internet desde 0, muestra

las conexiones de TCP activas, los puertos en que el equipo

escucha, las estadísticas de Ethernet, la tabla de enrutamiento IP,

las estadísticas de IPv4 (para los protocolos IP, ICMP, TCP y

UDP) y las estadísticas de IPv6 (para los protocolos IPv6,

ICMPv6, TCP sobre IPv6 y UDP sobre IPv6). Cuando se utiliza

Page 17: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 17 - sin parámetros, netstat muestra las conexiones de TCP activas.

Este servicio da información sobre los archivos compartidos y

usuarios que se encuentran en la red.

19 generador de

caracteres

Este servicio genera caracteres. En una conexión TCP, empieza

a generar caracteres basura cuando recibe el paquete UDP hasta

que la conexión ha finalizado. Los hackers pueden conseguir

ventajas cuando el usuario tiene este puerto abierto, como entrar

con IPs falsas para realizar ataques múltiples.

21

FTP,

Transferencia

de ficheros

El ataque más común que realizan los hackers y crackers, que

buscan servidores de FTP anónimos. Estos suelen ser servidores

que disponen de directorios con permisos de escritura y lectura.

El puerto por defecto para intercambio de ficheros.

22

ssh Control

remoto de los

PCs

Está usado por PC Anywere. Hay veces que podemos ser

escaneado por gente que emplea esta herramienta y no sabe que

está escaseando los puertos.

23 telnet

El intruso busca un login remoto. La mayoría de las veces de

escaneo de intrusos desde este puerto, es para averiguar el

sistema operativo que emplea el usuario.

25 smtp

Simple Mail Transfer Protocol, es el protocolo de salida del

correo. Los spammers buscan servidores de SMTP que les

permitan realizar envío masivo de correos electrónicos.

37 time Este servicio te da la hora del sistema.

38 rap Route Access Protocol. Ruta de acceso del protocolo.

39 rlp Resource Location Potocol. Con este servicio se conoce la

localización del recurso.

42 name Con este servicio se consigue el nombre del servidor.

43 nicname Who is. Con este servicio se obtiene la información sobre la red

o el usuario.

49 tacasc Login Host Protocol. Con este servicio obtenemos el protocolo

de login del host.

53 DNS

Este servicio nos dice el nombre de la máquina remota. Los

usuarios intentan acceder a zonas de transferencia (TCP) para

engañar DNS (UDP) o incluso para ocultar el tráfico que desde

el 53 no es reconocido por los Cortafuegos.

63 who is ++ Este servicio nos dice el nombre de propietario de dominio de

segundo nivel.

67/68 boot DHCP

Los Cortafuegos se conectan a líneas DSL o cable módem para

ver cientos de direcciones 255.255.255.255. Estas máquinas

preguntan por la asignación de una dirección de un servidor

DHCP.

69 TFTP Algunos servidores soportan este protocolo en conjunto con

Page 18: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 18 - BOOTP, con la intención de descargar código del sistema. Sin

embargo, algunas veces se desconfigura algún archivo del

sistema como los archivos que guardan las contraseñas. Por lo

que también, pueden ser usadas para crear archivos dentro del

sistema.

70 gopher Buscador de información.

79 finger Los usuarios le emplean para averiguar información del usuario,

conseguir información impresa en pantalla o colgar el sistema.

80 http

Servidor web con el que se puede acceder a páginas web. Con

este abierto, el usuario se puede conectar con programas de chat

como el Messenger.

88 kerberos

Es un método seguro de autenticación de respuesta. Siempre que

queramos acceder a otro ordenador necesitamos una respuesta de

autenticación del servidor (AS).

107 rtelnet Telnet remoto, es decir, con un telnet accedemos a otra

computadora a la que se supone tenemos permiso.

109 pop2 Post Office Protocol, versión 2. Servidor de correo electrónico

entrante.

110 pop3

Post Office Protocol, versión 3. Servidor de correo electrónico

entrante. Un punto de presencia (pop) es un punto de acceso de

Internet. Un pop tiene únicamente un protocolo de Internet (IP).

Este servicio proporciona el correo entrante que usamos en

programas como Outlook Express.

111 SUNrpc SUN Remote Procedure Call.

113 auth Servicio de autenticación.

115 sftp Simple File Transfer Protocol.

117 uucp-path UUCP Path Service.

119 nntp Este servicio proporciona grupos de noticias usenet.

133 statsrv Servicio de estadísticas.

137 netbios-ns

NETBIOS Name Service (Windows). NetBios es un programa

que permite a las aplicaciones de diferentes ordenadores

comunicarse sin una conexión de área local (LAN).

138 netbios-dg NETBIOS Datagram Service (Windows).

139 netvios-ssn NETBIOS Session Service (Windows).

143 imap Servicio de protocolo de mensajes de acceso de Internet (Internet

Message Access Protocol).

144 uma Universal Management Architecture. Servicio de noticias.

161 snmp Simple Network Management Protocolo (SNMP), es el

protocolo de gestión de dispositivos de red y sus funciones.

194 irc Protocolo de Chat. Internet Relay Chat (IRC), es un sistema de

Page 19: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 19 - comunicación instantánea que está envuelto en una serie de

reglas cliente-servidor.

220 imap 3 Es un protocolo estándar cliente-servidor con el que podemos

acceder a nuestro correo desde el servidor local.

443 shttp Servidor web seguro.

513 login Servicio que crea un login remoto al Telnet.

514 syslog Syslog. Una lista de todas las peticiones que el usuario ha

solicitado en un sitio web.

520 router Protocolo de información de routing.

529 irc-serv IRC, chats.

530 RPC

Remote Procedure Call (RPC), es un protocolo que un programa

puede usar para solicitar un servicio de un programa que se

encuentra en otro ordenador.

1352 lotus notes Desde este servicio se accede al servidor de correo de Lotus

Notes.

1397 audio-activmail Audio active mail.

1433 ms-spl-s Microsoft SQL – server.

1527 tlisrv Utilizado para acceder a Oracle.

5631 pcanywheredata

Solución de control remoto que permite a los administradores

que se conecten de forma segura, configuren y solucionen

problemas a través de cualquier tipo de conexión.

Frame En lo referente a la informática, se le llama frame en inglés a lo que en castellano se conoce como marco o cuadro, dependiendo de a qué se le aplica y variando entonces su significado final en función de ello:

1. En gráficos por computadora, contenido de una pantalla de datos o su espacio de almacenamiento equivalente.

2. En comunicaciones, bloque fijo de datos transmitidos como una sola entidad. También llamado packet (paquete).

3. En comunicaciones, distintamente a un paquete que es de tamaño fijo, un FRAME es variable en tamaño y puede ser tan largo como miles de bytes o más.

4. En autoedición, caja movible y de tamaño flexible, que contiene una imagen gráfica.

5. En inteligencia artificial, estructura de datos que contiene una descripción general de un objeto, que se deriva de conceptos básicos y de la experiencia.

Page 20: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 20 - Templates Una plantilla web o Templates es una pagina web pre-fabricada, con todo el codigo HTML e imagenes ya listos, que puedes modificar a tu gusto. Crea una presencia online con plantillas web de la más alta calidad a partir de nuestras plantillas html y photoshop.

Skin (software) Una piel o skin es una serie de elementos gráficos que, al aplicarse sobre un determinado software, modifican su apariencia externa. Estos elementos son independientes de la propia aplicación, con lo que esta puede tener entre sus opciones varias de estas pieles o ninguna, mostrando una apariencia estándar menos vistosa. Sin embargo, cada piel se puede aplicar exclusivamente sobre un software determinado, no pudiendo enviarse a otros programas. Es común el uso de estos elementos añadidos para mostrar una apariencia similar a la de otros sistemas operativos o a la de productos de la competencia. Muchas empresas distribuyen entornos de desarrollo que permiten crear piel para sus productos, con el fin de popularizar su software mediante una apariencia atractiva. En otros casos hay empresas especializadas en crear pieles o herramientas para crearlas y aplicarlos sobre software de terceros. Dado que en muchas ocasiones son creados por los propios usuarios, es habitual encontrar pieles que recuerden a grupos musicales o programas de televisión.

Cortafuegos Un cortafuegos (o firewall en inglés) es un elemento de hardware o software que se utiliza en una red de computadoras para controlar las comunicaciones, bien permitiéndolas bien prohibiéndolas según las políticas de red que haya definido la organización responsable de la misma. Su modo de funcionar está indicado en la recomendación RFC 2979, que define las características de comportamiento y requerimientos de interoperabilidad. La ubicación habitual de un cortafuegos es el punto de conexión de la red interna de la organización con la red exterior, que normalmente es Internet; de este modo se protege la red interna de intentos de acceso no autorizados desde Internet, que puedan aprovechar vulnerabilidades de los sistemas de la red interna. También es frecuente conectar al cortafuegos a una tercera red, llamada zona desmilitarizada o DMZ, en la que se ubican los servidores de la organización que deben permanecer accesibles desde la red exterior. Un cortafuegos correctamente configurado añade una protección necesaria a la red, pero que en ningún caso debe considerarse suficiente. La seguridad informática abarca más ámbitos y más niveles de trabajo y protección.

Zona desmilitarizada( DMZ ) En seguridad informática, una zona desmilitarizada (DMZ, demilitarized zone) o red perimetral es una red local que se ubica entre la red interna de una organización y una red externa, generalmente Internet. El objetivo de una DMZ es que las conexiones desde la red interna y la externa a la DMZ estén permitidas, mientras que las conexiones desde la DMZ sólo se permitan a la red externa -- los equipos (hosts) en la DMZ no pueden conectar con la red interna. Esto permite que los equipos (hosts) de la DMZ puedan dar servicios a la red externa a la vez que protegen la

Page 21: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 21 - red interna en el caso de que intrusos comprometan la seguridad de los equipos (host) situados en la zona desmilitarizada. Para cualquiera de la red externa que quiera conectarse ilegalmente a la red interna, la zona desmilitarizada se convierte en un callejón sin salida. La DMZ se usa habitualmente para ubicar servidores que es necesario que sean accedidos desde fuera, como servidores de e-mail, Web y DNS. Las conexiones que se realizan desde la red externa hacia la DMZ se controlan generalmente utilizando port address translation (PAT). Una DMZ se crea a menudo a través de las opciones de configuración del cortafuegos, donde cada red se conecta a un puerto distinto de éste. Esta configuración se llama cortafuegos en trípode (three-legged firewall). Un planteamiento más seguro es usar dos cortafuegos, donde la DMZ se sitúa en medio y se conecta a ambos cortafuegos, uno conectado a la red interna y el otro a la red externa. Esta configuración ayuda a prevenir configuraciones erróneas accidentales que permitan el acceso desde la red externa a la interna. Este tipo de configuración también es llamado cortafuegos de subred monitoreada (screened-subnet firewall). Obsérvese que los router domésticos son llamados "DMZ host", aunque no es una definición correcta de zona desmilitarizada.

LAN (Local Area Network): Redes de Área Local Es un sistema de comunicación entre computadoras que permite compartir información, con la característica de que la distancia entre las computadoras debe ser pequeña. Estas redes son usadas para la interconexión de computadores personales y estaciones de trabajo. Se caracterizan por: tamaño restringido, tecnología de transmisión (por lo general broadcast), alta velocidad y topología. Son redes con velocidades entre 10 y 100 Mbps, tiene baja latencia y baja tasa de errores. Cuando se utiliza un medio compartido es necesario un mecanismo de arbitraje para resolver conflictos. Dentro de este tipo de red podemos nombrar a INTRANET, una red privada que utiliza herramientas tipo internet , pero disponible solamente dentro de la organización.

WAN (Wide Area Network): Redes de Amplia Cobertura Son redes que cubren una amplia región geográfica, a menudo un país o un continente. Este tipo de redes contiene máquinas que ejecutan programas de usuario llamadas hosts o sistemas finales (end system). Los sistemas finales están conectados a una subred de comunicaciones. La función de la subred es transportar los mensajes de un host a otro. En la mayoría de las redes de amplia cobertura se pueden distinguir dos componentes: Las líneas de transmisión y los elementos de intercambio (Conmutación). Las líneas de transmisión se conocen como circuitos, canales o truncales. Los elementos de intercambio son computadores especializados utilizados para conectar dos o más líneas de transmisión. Las redes de área local son diseñadas de tal forma que tienen topologías simétricas, mientras que las redes de amplia cobertura tienen topología irregular. Otra forma de lograr una red de amplia cobertura es a través de satélite o sistemas de radio. Ej. : X.25, RTC, ISDN, etc.

Page 22: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 22 - VLAN Una VLAN (acrónimo de Virtual LAN, ‘red de área local virtual’) es un método de crear redes lógicamente independientes dentro de una misma red física. Varias VLANs pueden coexistir en un único conmutador físico o en una única red física. Son útiles para reducir el tamaño del dominio de difusión y ayudan en la administración de la red separando segmentos lógicos de una red de área local (como departamentos de una empresa) que no deberían intercambiar datos usando la red local (aunque podrían hacerlo a través de un enrutador o un switch capa 3).

Una 'VLAN' consiste en una red de ordenadores que se comportan como si estuviesen

conectados al mismo conmutador, aunque pueden estar en realidad conectados físicamente

a diferentes segmentos de una red de área local. Los administradores de red configuran las

VLANs mediante software en lugar de hardware, lo que las hace extremadamente flexibles.

Una de las mayores ventajas de las VLANs surge cuando se traslada físicamente algún

ordenador a otra ubicación: puede permanecer en la misma VLAN sin necesidad de

cambiar la configuración IP de la máquina.

Add-on Pequeños programas opcionales que sólo funcionan anexados a otro y que sirven para incrementar o complementar sus funcionalidades. Las barras de Google y Yahoo! son add-ons para los navegadores y tienen opciones y funciones que incrementan la potencialidad del mismo.

Plugin

Programa que puede anexarse a otro para aumentar sus funcionalidades (generalmente sin afectar otras funciones ni afectar la aplicación principal). No se trata de un parche ni de una actualización, es un módulo aparte que se incluye opcionalmente en una aplicación. Por ejemplo las barras de búsquedas de Google, Yahoo!, Alexa, entre otras, son plugin para los navegadores web como Internet Explorer, Firefox, etc.

Spam Se llama spam, correo basura o sms basura a los mensajes no solicitados, habitualmente de tipo publicitario, enviados en grandes cantidades (incluso masivas) que perjudican de alguna o varias maneras al receptor. La acción de enviar dichos mensajes se denomina spamming. Aunque se puede hacer por distintas vías, la más utilizada entre el público en general es la basada en el correo electrónico. Otras tecnologías de internet que han sido objeto de correo basura incluyen grupos de noticias, usenet, motores de búsqueda, wikis, foros, blogs, también a través de popups y todo tipo de imágenes y textos en la web. El correo basura también puede tener como objetivo los teléfonos móviles (a través de mensajes de texto) y los sistemas de mensajería instantánea como por ejemplo Outlook, Lotus Notes, etc. También se llama spam a los virus sueltos en la red y páginas filtradas (casino, sorteos, premios, viajes y pornografía), se activa mediante el ingreso a páginas de comunidades o grupos o acceder a links en diversas páginas.

Page 23: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 23 - Cookie

Una cookie (pronunciado ['ku.ki]; literalmente galleta) es un fragmento de información que

se almacena en el disco duro del visitante de una página web a través de su navegador, a

petición del servidor de la página. Esta información puede ser luego recuperada por el

servidor en posteriores visitas. En ocasiones también se le llama "huella".

Las inventó Lou Montulli, un antiguo empleado de Netscape Communications. Al ser el

protocolo HTTP incapaz de mantener información por sí mismo, para que se pueda

conservar información entre una página vista y otra (como login de usuario, preferencias de

colores, etc), ésta debe ser almacenada, ya sea en la URL de la página, en el propio

servidor, o en una cookie en el ordenador del visitante.

Gadget Un gadget es un dispositivo que tiene un propósito y una función específica, generalmente de pequeñas proporciones, práctico y a la vez novedoso. Los gadgets suelen tener un diseño más ingenioso que el de la tecnología corriente.

RSS Es una familia de formatos de fuentes web codificados en XML. Se utiliza para suministrar a suscriptores de información actualizada frecuentemente. El formato permite distribuir contenido sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común).

Redifusión web (o sindicación web) Es el reenvío o reemisión de contenidos desde una fuente original (sitio web de origen) hasta otro sitio web de destino (receptor) que a su vez se convierte en emisor puesto que pone a disposición de sus usuarios los contenidos a los que en un principio sólo podían tener acceso los usuarios del sitio web de origen. Habitualmente esta redifusión web se lleva a cabo mediante a un contrato o licencia entre las partes: sitio web de origen y sitio web de destino. Esto puede ser simplemente licenciando el contenido para que puedan usarlo otras personas; sin embargo, en general, la redifusión web se refiere a ofrecer un contenido informativo desde una fuente web originario de una página web para proporcionar a otras personas la actualización del mismo (por ejemplo, noticias de un periódico, nuevos artículos en una bitácora, los últimos comentarios en un foro, etcétera).

Page 24: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 24 -

Logo típico de redifusión web

Agregador Un agregador o agregador de noticias es un tipo de software para suscribirse a fuentes de noticias en formatos RSS, Atom y otros derivados de XML/RDF. El agregador reúne las noticias o historias publicadas en los sitios con redifusión web elegidos, y muestra las novedades o modificaciones que se han producido en esas fuentes web; es decir, avisa de qué webs han incorporado contenido nuevo desde nuestra última lectura y cuál es ese contenido. Esta información es la que se conoce como fuente web. Un agregador es muy similar en sus presentaciones a los anteriores lectores de noticias (client newsreaders/NNTP), pero la tecnología XML y el web semántico los ha hecho más populares. Hoy en día, una enorme cantidad de blogs y sitios web ofrecen sus actualizaciones, que pueden ser fácilmente reunidas y administradas en un solo punto, como es el caso del servicio My Yahoo!, Google Reader, Netvibes y otros agregadores de escritorio que se listan más abajo.

Extensible Markup Language XML Siglas en inglés de Extensible Markup Language («lenguaje de marcas ), es un metalenguaje extensible de etiquetas desarrollado por el World Wide Web Consortium (W3C). Es una simplificación y adaptación del SGML y permite definir la gramática de lenguajes específicos (de la misma manera que HTML es a su vez un lenguaje definido por SGML). Por lo tanto XML no es realmente un lenguaje en particular, sino una manera de definir lenguajes para diferentes necesidades. Algunos de estos lenguajes que usan XML para su definición son XHTML, SVG, MathML. XML no ha nacido sólo para su aplicación en Internet, sino que se propone como un estándar para el intercambio de información estructurada entre diferentes plataformas. Se puede usar en bases de datos, editores de texto, hojas de cálculo y casi cualquier cosa imaginable. XML es una tecnología sencilla que tiene a su alrededor otras que la complementan y la hacen mucho más grande y con unas posibilidades mucho mayores. Tiene un papel muy importante en la actualidad ya que permite la compatibilidad entre sistemas para compartir la información de una manera segura, fiable y fácil.

Page 25: Primera semana de investigacion

Seminario de Informática Eliseo Martinez 2004-0021

- 25 - Bibliografia

www.wikipedia.com www.qweb.es/empresas-de-hosting.html www.alegsa.com.ar/Dic www.google.com.do