martes, 15 de noviembre de 2016

antivirus

Métodos de funcionamiento[editar]

De acuerdo a la tecnología empleada, un motor de antivirus puede funcionar de diversas formas, pero ninguno es totalmente efectivo, según lo demostrado por el Frederick Cohen, quien en 1987 determinó que no existe un algoritmo perfecto para identificar virus.1
Algunos de los mecanismos que usan los antivirus para detectar virus son:
  • Firma digital: consiste en comparar una marca única del archivo con una base de datos de virus para identificar coincidencias.
  • Detección heurística: consiste en el escaneo de los archivos buscando patrones de código que se asemejan a los que se usan en los virus.
  • Detección por comportamiento: consiste en escanear el sistema tras detectar un fallo o mal funcionamiento. Por lo general, mediante este mecanismo se pueden detectar software ya identificado o no, pero es una medida que se usa tras la infección.
  • Detección por caja de arena (o sandbox): consiste en ejecutar el software en máquinas virtuales y determinar si el software ejecuta instrucciones maliciosas o no. A pesar que este mecanismo es seguro, toma bastante tiempo ejecutar las pruebas antes de ejecutar el software en la máquina real.

Planificación[editar]

La planificación consiste en tener preparado un plan de contingencia en caso de que una emergencia de virus se produzca, así como disponer al personal de la formación adecuada para reducir al máximo las acciones que puedan presentar cualquier tipo de riesgo. Cada antivirus puede planear la defensa de una manera, es decir, un antivirus puede hacer un escaneado completo, rápido o de vulnerabilidad según elija el usuario.

Consideraciones de software[editar]

El software es otro de los elementos clave en la parte de planificación. Se debería tener en cuenta la siguiente lista de comprobaciones para tu seguridad:
  1. Tener el software indispensable para el funcionamiento de la actividad, nunca menos pero tampoco más. Tener controlado al personal en cuanto a la instalación de software es una medida que va implícita. Asimismo, tener controlado el software asegura la calidad de la procedencia del mismo (no debería permitirse software pirata o sin garantías). En todo caso un inventario de software proporciona un método correcto de asegurar la reinstalación en caso de desastre.
  2. Disponer del software de seguridad adecuado. Cada actividad, forma de trabajo y métodos de conexión a Internet requieren una medida diferente de aproximación al problema. En general, las soluciones domésticas, donde únicamente hay un equipo expuesto, no son las mismas que las soluciones empresariales.
  3. Métodos de instalación rápidos. Para permitir la reinstalación rápida en caso de contingencia.
  4. Asegurar licencias. Determinados softwares imponen métodos de instalación de una vez, que dificultan la reinstalación rápida de la red. Dichos programas no siempre tienen alternativas pero ha de buscarse con el fabricante métodos rápidos de instalación.
  5. Buscar alternativas más seguras. Existe software que es famoso por la cantidad de agujeros de seguridad que introduce. Es imprescindible conocer si se puede encontrar una alternativa que proporcione iguales funcionalidades pero permitiendo una seguridad extra.

Consideraciones de la red[editar]

Disponer de una visión clara del funcionamiento de la red permite poner puntos de verificación de filtrado y detección ahí donde la incidencia es más claramente identificable. Sin perder de vista otros puntos de acción es conveniente:
  1. Mantener al máximo el número de recursos de red en modo de sólo lectura. De esta forma se impide que computadoras infectadas los propaguen.
  2. Centralizar los datos. De forma que detectores de virus en modo batch puedan trabajar durante la noche.
  3. Realizar filtrados de firewall de red. Eliminar los programas que comparten datos, como pueden ser los P2P; Mantener esta política de forma rigurosa, y con el consentimiento de la gerencia.
  4. Reducir los permisos de los usuarios al mínimo, de modo que sólo permitan el trabajo diario.
  5. Controlar y monitorizar el acceso a Internet. Para poder detectar en fases de recuperación cómo se ha introducido el virus, y así determinar los pasos a seguir.

Formación del usuario[editar]

Esta es la primera barrera de protección de la red.

Antivirus[editar]

Es conveniente disponer de una licencia activa de antivirus. Dicha licencia se empleará para la generación de discos de recuperación y emergencia. Sin embargo, no se recomienda en una red el uso continuo de antivirus.
El motivo radica en la cantidad de recursos que dichos programas obtienen del sistema, reduciendo el valor de las inversiones en hardware realizadas. Aunque si los recursos son suficientes, este extra de seguridad puede ser muy útil.
Sin embargo, los filtros de correos con detectores de virus son imprescindibles, ya que de esta forma se asegurará una reducción importante de elecciones de usuarios no entrenados que pueden poner en riesgo la red.

Firewalls[editar]

Filtrar contenidos y puntos de acceso. Eliminar programas que no estén relacionados con la actividad. Tener monitorizado los accesos de los usuarios a la red, permite asimismo reducir la instalación de software que no es necesario o que puede generar riesgo para la continuidad del negocio. Su significado es barrera de fuego y no permite que otra persona no autorizada tenga acceso desde otro equipo al tuyo.

Reemplazo de software[editar]

Los puntos de entrada en la red la mayoría de las veces son el correo, las páginas web, y la entrada de ficheros desde discos, o de computadoras ajenas a la empresa.
Muchas de estas computadoras emplean programas que pueden ser reemplazados por alternativas más seguras.
Es conveniente llevar un seguimiento de cómo distribuyen bancos, y externos el software, valorar su utilidad.

Centralización y backup[editar]

La centralización de recursos y garantizar el backup de los datos es otra de las pautas fundamentales en la política de seguridad recomendada.
La generación de inventarios de software, centralización del mismo y la capacidad de generar instalaciones rápidas proporcionan métodos adicionales de seguridad.
Es importante tener localizado dónde se sitúa la información en la empresa. De esta forma podemos realizar las copias de seguridad de forma adecuada.
Control o separación de la informática móvil, dado que esta está más expuesta a las contingencias de virus.

Empleo de sistemas operativos más seguros[editar]

Para servir ficheros no es conveniente disponer de los mismos sistemas operativos que se emplean dentro de las estaciones de trabajo, ya que toda la red en este caso está expuesta a los mismos retos. Una forma de prevenir problemas es disponer de sistemas operativos con arquitecturas diferentes, que permitan garantizar la continuidad de negocio.

Temas acerca de la seguridad[editar]

Existen ideas instaladas por parte de las empresas de antivirus parte en la cultura popular que no ayudan a mantener la seguridad de los sistemas de información.
  • Mi sistema no es importante para un cracker. Este tema se basa en la idea de que no introducir passwords seguras en una empresa no entraña riesgos pues «¿Quién va a querer obtener información mía?» Sin embargo, dado que los métodos de contagio se realizan por medio de programas automáticos, desde unas máquinas a otras, estos no distinguen buenos de malos, interesantes de no interesantes. Por tanto abrir sistemas y dejarlos sin claves es facilitar la vida a los virus.
  • Estoy protegido pues no abro archivos que no conozco. Esto es falso, pues existen múltiples formas de contagio, además los programas realizan acciones sin la supervisión del usuario poniendo en riesgo los sistemas.
  • Como tengo antivirus estoy protegido. Únicamente estoy protegido mientras el antivirus sepa a lo que se enfrenta y como combatirlo. En general los programas antivirus no son capaces de detectar todas las posibles formas de contagio existentes, ni las nuevas que pudieran aparecer conforme las computadoras aumenten las capacidades de comunicación.
  • Como dispongo de un firewall no me contagio. Esto únicamente proporciona una limitada capacidad de respuesta. Las formas de infectarse en una red son múltiples. Unas provienen directamente de accesos a mi sistema (de lo que protege un firewall) y otras de conexiones que realizó (de las que no me protege). Emplear usuarios con altos privilegios para realizar conexiones tampoco ayuda.

martes, 1 de noviembre de 2016


tipos de moda

 Moda Contemporánea La moda contemporánea es aquella que esta presente y en tiempo presente, la que esta a la vanguardia, la que va de acuerdo por la temporada y al ritmo de la moda actual.  Pero también hace referencia a un época determinada en donde se puso en auge una tendencia de uso de vestimenta. Moda Erótica Es un conjunto de prendas intimas o interiores que se pone de vanguardia en el ámbito de las lencerías. Este tipo de moda varia por temporadas o por situaciones de clima. Moda  Vanguardista Cuando nos referimos a vanguardia, hacemos énfasis en lo que esta en el momento, por esto la moda vanguardista es aquella que esta acorde con las temporadas, lo que esta en las tiendas, en exhibiciones, en pasarela etc.  Cuando nos referimos a vanguardia, hablamos de lo que esta primero y de lo exclusivo. Moda Grunge La moda grunge es aquella que se caracteriza por el uso de prendas de vestir como pantalones rasgados, camisas a cuadros, y es un estilo que surgió de la moda callejera, de los suburbios y barrios marginados. Este tipo de moda se puso de manifiesto en los años 90 y es mas usada por las bandas de rock, hippies, y personas que siguen el arte callejero. Moda Romántica Esta moda se define mayormente por el tamaño de las mangas de los vestidos o blusas. Se puso de manifiesto al rededor del siglo XIX, y se caracterizo también por los vestidos exageradamente acampanados y las cinturas muy apretadas.  Pero este tipo de moda medieval fue disminuyendo por los años 1836. Moda Vintage La moda vintage surge como una sutil y elegante manifestación de lo que es la moda post moderna.  Se refiere al uso de prendas de vestir con un toque antiguo pero combinado con la elegancia y buen gusto. Generalmente son ropas con desgastes, con estampados pronunciados o colores pasteles antiquiet y atendidos en otras épocas y con estilos retro pero que no necesariamente lo son. Moda Retro Cuando se habla de moda retro no se puede dejar de mencionar los estilos y prendas de vestir de los años y décadas que todos dejamos atrás. Esta terminología usualmente se le otorga a los atuendos característicos de los años del siglo XX, en donde aun hoy en día se ponen de manifiestos algunos estilos de esta índole. Cabe destacar que la moda retro y la moda vintage no es lo mismo, pues generalmente hay muchas personas que tienden  a confundir estos dos estilos. Moda Oversize Este tipo de moda se refiere al estilo de prendas de vestir de tallas grandes y de sizes exagerados, aun cuando la persona no corresponda con la talla.  Se puso de manifiesto en los años 80 y se destacaron las prendas con grandes hombreas y la abundancia de las telas alrededor de los cuerpos. Moda Hippie Ese tipo de moda tomo su auge entre los años 60 y los años 70 y se caracterizo por el uso de ropas de colores variados, pantalones ajustados o muy sueltos, camisetas por dibujos controversiales, desahogas y en casos cortas mostrando el ombligo.  Esta moda fue destacada por los rebeldes del gobierno o de los que estaban a favor del comunismo y la liberalidad del cuerpo.

Fuente: http://www.mastiposde.com/moda.html

redes sociales

Historia del análisis de redes sociales[editar]

Linton Freeman ha escrito la historia del progreso de las redes sociales y del análisis de redes sociales.7
Los precursores de las redes sociales, a finales del siglo XIX incluyen a Émile Durkheim y a Ferdinand Tönnies. Tönnies argumentó que los grupos sociales pueden existir bien como lazos sociales personales y directos que vinculan a los individuos con aquellos con quienes comparte valores y creencias (gemeinschaft), o bien como vínculos sociales formales e instrumentales (gesellschaft). Durkheim aportó una explicación no individualista al hecho social, argumentando que los fenómenos sociales surgen cuando los individuos que interactúan constituyen una realidad que ya no puede explicarse en términos de los atributos de los actores individuales. Hizo distinción entre una sociedad tradicional -con "solidaridad mecánica"- que prevalece si se minimizan las diferencias individuales; y una sociedad moderna -con "solidaridad orgánica"- que desarrolla cooperación entre individuos diferenciados con roles independientes.
Por su parte, Georg Simmel a comienzos del siglo XX, fue el primer estudioso que pensó directamente en términos de red social. Sus ensayos apuntan a la naturaleza del tamaño de la red sobre la interacción y a la probabilidad de interacción en redes ramificadas, de punto flojo, en lugar de en grupos.
Después de una pausa en las primeras décadas del siglo XX, surgieron tres tradiciones principales en las redes sociales. En la década de 1930, Jacob L. Moreno fue pionero en el registro sistemático y en el análisis de la interacción social de pequeños grupos, en especial las aulas y grupos de trabajo (sociometría), mientras que un grupo de Harvard liderado por W. Lloyd Warner y Elton Mayo exploró las relaciones interpersonales en el trabajo. En 1940, en su discurso a los antropólogos británicos, A.R. Radcliffe-Brown instó al estudio sistemático de las redes.8 Sin embargo, tomó unos 15 años antes de esta convocatoria fuera seguida de forma sistemática.
El Análisis de redes sociales se desarrolló con los estudios de parentesco de Elizabeth Bott en Inglaterra entre los años 1950, y con los estudios de urbanización del grupo de antropólogos de la Universidad de Mánchester (acompañando a Max Gluckman y después a J. Clyde Mitchell) entre los años 1950 y 1960, investigando redes comunitarias en el sur de ÁfricaIndia y el Reino Unido. Al mismo tiempo, el antropólogo británico Nadel SF Nadel codificó una teoría de la estructura social que influyó posteriormente en el análisis de redes.9
Entre los años 1960 y 1970, un número creciente de académicos trabajaron en la combinación de diferentes temas y tradiciones. Un grupo fue el de Harrison White y sus estudiantes en el Departamento de Relaciones Sociales de la Universidad de HarvardIvan ChaseBonnie EricksonHarriet FriedmannMark GranovetterNancy HowellJoel LevineNicholas MullinsJohn PadgettMichael Schwartz y Barry Wellman. Otras personas importantes en este grupo inicial fueron Charles Tilly, quien se enfocó en redes en sociología política y movimientos sociales, y Stanley Milgram, quien desarrolló la tesis de los "seis grados de separación".10 Mark Granovetter y Barry Wellman están entre los antiguos estudiantes de White que han elaborado y popularizado el análisis de redes sociales.11
Pero el grupo de White no fue el único. En otros lugares, distintos académicos desarrollaron un trabajo independiente significativo: científicos sociales interesados en aplicaciones matemáticas de la Universidad de California Irvine en torno a Linton Freeman, incluyendo a John BoydSusan FreemanKathryn FaustA. Kimball Romney y Douglas White; analistas cuantitativos de la Universidad de Chicago, incluyendo a Joseph Galaskiewicz, Wendy Griswold, Edward Laumann, Peter Marsden, Martina Morris, y John Padgett; y académicos de la comunicación en la Universidad de Michigan, incluyendo a Nan Lin y Everett Rogers. En la década de 1970, se constituyó un grupo de sociología sustantiva orientada de la Universidad de Toronto, en torno a antiguos estudiantes de Harrison White: S.D. Berkowitz, Harriet FriedmannNancy Leslie HowardNancy HowellLorne Tepperman y Barry Wellman, y también los acompañó el señalado modelista y teorético de los juegos Anatol Rapoport. En términos de la teoría, criticó el individualismo metodológico y los análisis basados en grupos, argumentando que ver el mundo desde la óptica de las redes sociales ofrece un apalancamiento más analítico.12

Investigación sobre redes sociales[editar]

El análisis de redes sociales se ha utilizado en epidemiología para ayudar a entender cómo los patrones de contacto humano favorecen o impiden la propagación de enfermedades como el VIH en una población. La evolución de las redes sociales a veces puede ser simulada por el uso de modelos basados en agentes, proporcionando información sobre la interacción entre las normas de comunicación, propagación de rumores y la estructura social.
El análisis de redes sociales también puede ser una herramienta eficaz para la vigilancia masiva - por ejemplo, el Total Information Awareness realizó una investigación a fondo sobre las estrategias para analizar las redes sociales para determinar si los ciudadanos de EE.UU. eran o no amenazas políticas.
La teoría de difusión de innovaciones explora las redes sociales y su rol en la influencia de la difusión de nuevas ideas y prácticas. El cambio en los agentes y en la opinión del líder a menudo tienen un papel más importante en el estímulo a la adopción de innovaciones, a pesar de que también intervienen factores inherentes a las innovaciones.
Por su parte, Robin Dunbar sugirió que la medída típica en una red egocéntrica está limitado a unos 150 miembros, debido a los posibles límites de la capacidad del canal de la comunicación humana. Esta norma surge de los estudios transculturales de la sociología y especialmente de la antropología sobre la medida máxima de una aldea (en el lenguaje moderno mejor entendido como una ecoaldea). Esto está teorizado en la psicología evolutiva, cuando afirma que el número puede ser una suerte de límite o promedio de la habilidad humana para reconocer miembros y seguir hechos emocionales con todos los miembros de un grupo. Sin embargo, este puede deberse a la intervención de la economía y la necesidad de seguir a los «polizones», lo que hace que sea más fácil en grandes grupos sacar ventaja de los beneficios de vivir en una comunidad sin contribuir con esos beneficios.
Mark Granovetter encontró en un estudio que un número grande de lazos débiles puede ser importante para la búsqueda de información y la innovación. Los cliques tienen una tendencia a tener opiniones más homogéneas, así como a compartir muchos rasgos comunes. Esta tendencia homofílica es la razón por la cual los miembros de las camarillas se atraen en primer término. Sin embargo, de forma parecida, cada miembro del clique también sabe más o menos lo que saben los demás. Para encontrar nueva información o ideas, los miembros del clique tendrán que mirar más allá de este a sus otros amigos y conocidos. Esto es lo que Granovetter llamó «la fuerza de los lazos débiles».
Hay otras aplicaciones del término red social. Por ejemplo, el Guanxi es un concepto central en la sociedad china (y otras culturas de Asia oriental), que puede resumirse como el uso de la influencia personal. El Guanxi puede ser estudiado desde un enfoque de red social.13
El fenómeno del mundo pequeño es la hipótesis sobre que la cadena de conocidos sociales necesaria para conectar a una persona arbitraria con otra persona arbitraria en cualquier parte del mundo, es generalmente corta. El concepto dio lugar a la famosa frase de seis grados de separación a partir de los resultados del «experimento de un mundo pequeño» hecho en 1967 por el psicólogo Stanley Milgram. En el experimento de Milgram, a una muestra de individuos EE.UU. se le pidió que hiciera llegar un mensaje a una persona objetivo en particular, pasándolo a lo largo de una cadena de conocidos. La duración media de las cadenas exitosas resultó ser de unos cinco intermediarios, o seis pasos de separación (la mayoría de las cadenas en este estudio ya no están completas). Los métodos (y la ética también) del experimento de Milgram fueron cuestionados más tarde por un estudioso norteamericano, y algunas otras investigaciones para replicar los hallazgos de Milgram habrían encontrado que los grados de conexión necesarios podrían ser mayores.14 Investigadores académicos continúan exploranto este fenómeno dado que la tecnología de comunicación basada en Internet ha completado la del teléfono y los sistemas postales disponibles en los tiempos de Milgram. Un reciente experimento electrónico del mundo pequeño en la Universidad de Columbia, arrojó que cerca de cinco a siete grados de separación son suficientes para conectar cualesquiera dos personas a través de e-mail.15
Los grafos de colaboración pueden ser utilizados para ilustrar buenas y malas relaciones entre los seres humanos. Un vínculo positivo entre dos nodos denota una relación positiva (amistad, alianza, citas) y un vínculo negativo entre dos nodos denota una relación negativa (odio, ira). Estos gráficos de redes sociales pueden ser utilizados para predecir la evolución futura de la gráfica. En ellos, existe el concepto de ciclos «equilibrados» y «desequilibrados». Un ciclo de equilibrio se define como aquél donde el producto de todos los signos son positivos. Los gráficos balanceados representan un grupo de personas con muy poca probabilidad de cambio en sus opiniones sobre las otras personas en el grupo. Los gráficos desequilibrados representan un grupo de individuo que es muy probable que cambie sus opiniones sobre los otros en su grupo. Por ejemplo, en un grupo de 3 personas (A, B y C) donde A y B tienen una relación positiva, B y C tienen una relación positiva, pero C y A tienen una relación negativa, es un ciclo de desequilibrio. Este grupo es muy probable que se transforme en un ciclo equilibrado, tal que la B sólo tiene una buena relación con A, y tanto A como B tienen una relación negativa con C. Al utilizar el concepto de ciclos balanceados y desbalanceados, puede predecirse la evolución de la evolución de un grafo de red social.
Un estudio ha descubierto que la felicidad tiende a correlacionarse en redes sociales. Cuando una persona es feliz, los amigos cercanos tienen una probabilidad un 25 por ciento mayor de ser también felices. Además, las personas en el centro de una red social tienden a ser más feliz en el futuro que aquellos situados en la periferia. En las redes estudiadas se observaron tanto a grupos de personas felices como a grupos de personas infelices, con un alcance de tres grados de separación: se asoció felicidad de una persona con el nivel de felicidad de los amigos de los amigos de sus amigos.16
Algunos investigadores han sugerido que las redes sociales humanas pueden tener una base genética.17 Utilizando una muestra de mellizos del National Longitudinal Study of Adolescent Health, han encontrado que el in-degree (número de veces que una persona es nombrada como amigo o amiga), la transitividad (la probabilidad de que dos amigos sean amigos de un tercero), y la intermediación y centralidad (el número de lazos en la red que pasan a través de una persona dada) son significativamente hereditarios. Los modelos existentes de formación de redes no pueden dar cuenta de esta variación intrínseca, por lo que los investigadores proponen un modelo alternativo «Atraer y Presentar», que pueda explicar ese caracter hereditario y muchas otras características de las redes sociales humanas.18

Métricas o medidas en el análisis de redes sociales[editar]

Conector
Un lazo puede ser llamado conector si su eliminación causa que los puntos que conecta se transformen en componentes distintos de un grafo.
Centralidad
Medidas de la importancia de un nodo dentro de una red, dependiendo de la ubicación dentro de ésta. Ejemplos de medidas de centralidad son la centralidad de grado, la cercanía, la intermediación y la centralidad de vector propio.
Centralización
La diferencia entre el número de enlaces para cada nodo, dividido entre la cantidad máxima posible de diferencias. Una red centralizada tendrá muchos de sus vínculos dispersos alrededor de uno o unos cuantos puntos nodales, mientras que una red descentralizada es aquella en la que hay poca variación entre el número de enlaces de cada nodo posee.19
Coeficiente de agrupamiento
Una medida de la probabilidad de que dos personas vinculadas a un nodo se asocien a sí mismos. Un coeficiente de agrupación más alto indica un mayor «exclusivismo».
Cohesión
El grado en que los actores se conectan directamente entre sí por vínculos cohesivos. Los grupos se identifican como ‘cliques’ si cada individuo está vinculado directamente con cada uno de los otros, ‘círculos sociales’ si hay menos rigor en el contacto directo y este es inmpreciso, o bloques de cohesión estructural si se requiere la precisión.20
(Nivel individual) Densidad
El grado de relaciones de un demandado de conocerse unos a otros / proporción de lazos entre las mencione de un individuo. La densidad de la red, o densidad global, es la proporción de vínculos en una red en relación con el total de vínculos posibles (redes escasas versus densas)
Flujo de centralidad de intermediación
El grado en que un nodo contribuye a la suma del flujo máximo entre todos los pares de nodos (excluyendo ese nodo).

facebook

Historia

Mark Zuckerberg creó Facebook en el periodo en que fue estudiante de la Universidad de Harvard. Cuando esta red social empezó a ganar en popularidad, Mark abandonó sus estudios en Harvard. La compañía actualmente tiene sus oficinas centrales en Menlo ParkCalifornia. En 2003 Zuckerberg lanzó en la universidad un sitio web llamado Facemash(pronunciación AFI [feɪsmæʃ]) donde reunía varias fotografías y nombres de estudiantes de Harvard, este sitio estuvo disponible solo por algunas horas y por este suceso fue llevado ante los directivos de la Universidad, quienes culparon a Mark por haber sustraído datos e imágenes del sistema informático de la institución; suspendieron a Mark de clases, quien luego se alejó de la universidad al año siguiente para crear Facebook.
En enero de 2004 los hermanos Winklevoss y Divya Narendra, estudiantes también de Harvard, supieron del incidente de Mark y su Facemash, observaron sus habilidades informáticas y hablaron con él acerca de una idea que ellos tenían para crear un directorio web en línea para el uso de todos los integrantes de las fraternidades en la universidad, hasta entonces dispersos en diversos facebooks, anuarios impresos. Mark aceptó y comenzó a trabajar en ese proyecto, Zuckerberg trabajaba en ese proyecto pero al mismo tiempo trabajaba en uno propio, el thefacebook, que apareció el 4 de febrero de 2004 reflejando a Mark como creador. Seis días después, los hermanos Winklevoss y Narendra abren una demanda pues thefacebook era similar al sitio web en el cual ellos estaban trabajando llamado HarvardConnection.com. Acusaron a Mark de haber retrasado intencionalmente el proyecto de ellos en el cual él era el desarrollador principal, para crear thefacebook, y que por consiguiente su idea fue robada y a ellos no les dio ningún crédito. Thefacebook se hizo muy popular entre todos los estudiantes de Harvard y pronto creció más, hasta llegar a otras instituciones y alcanzando a todas las universidades de la Ivy League.
En algún momento de 2004, Sean Parker, creador de Napster, supo de la existencia de thefacebook por medio de su novia. Parker ya tenía experiencia en redes sociales al ser accionista de Friendster, para entonces la más popular. Por la diferencia de público entre ambos, Parker intuyó que thefacebook podía tener mayor potencial. Tuvo una entrevista con Zuckerberg para negociar entrar como presidente ejecutivo, a cambio de eliminar el the del nombre dejándolo como Facebook. En 2005 Sean Parker fue expulsado del cargo de presidente ejecutivo después de ser arrestado como sospechoso de posesión de cocaína.
La idea de crear una comunidad basada en la Web en que la gente compartiera sus gustos y sentimientos no es nueva, pues David Bohnett, creador de Geocities, la había incubado a fines de la década de 1980. Una de las estrategias de Zuckerberg fue abrir la plataforma Facebook a otros desarrolladores.
Entre los años 2007 y 2008 se puso en marcha Facebook en español, traducido por voluntarios,5 extendiéndose a los países de Latinoamérica y a España.
También hay una película acerca de los inicios de Facebook titulada La red social.

coreo electronico

Origen del correo electrónico[editar]

El correo electrónico es anterior a la creación de Internet. El primer antecedente data de 1962, cuando el Massachusetts Institute of Technology adquirió una computadora de tiempo compartido modelo IBM 7090 (actualizado en 1963 a un IBM 7094) que permitía a varios usuarios iniciar sesión desde terminales remotas, y así guardar archivos en el disco. Este sistema se utilizó informalmente para intercambiar mensajes, pero ya en 1965 se desarrolló el servicio MAIL, que facilitaba el envío de mensajes entre los usuarios de esta máquina.6
El primer mensaje de correo electrónico genuinamente enviado a través de una red data del año 1971. El mensaje, que contenía únicamente el texto «QWERTYUIOP», se envió a través de la red ARPANET, aunque las máquinas estaban físicamente una junto a la otra. La idea del correo electrónico sobre redes se debe a Ray Tomlinson, quien utilizó el protocolo experimental CYPNET para enviar por red los mensajes, que hasta ese momento solo comunicaban a los usuarios de una misma computadora.7
Fue así mismo Tomlinson quien incorporó el uso de la arroba (@) como divisor entre el usuario y la computadora en la que se aloja la cuenta del usuario de destino. Anteriormente no había necesidad de especificar la máquina de destino puesto que todos los mensajes que se enviaban eran locales; sin embargo, con el nuevo sistema era preciso distinguir el correo local del correo de red. El motivo de elegir este símbolo fue que en inglés la arroba se lee «at» (en español en). Así, la dirección ejemplo@máquina.com se lee ejemplo en máquina punto com.8
En 1977 el correo electrónico se convirtió en un servicio de red estandarizado, gracias a diversos estándares parciales,9que culminaron con la especificación RFC 733.10

Direcciones de correo electrónico[editar]

Para poder enviar o recibir correos electrónicos es necesario disponer de una cuenta de correo. Dicha cuenta es un buzón virtual identificado por una dirección de correo electrónico de la forma «Juan.Nadie@ejemplo.com». Cada dirección se compone de una parte local (en este caso Juan.Nadie), el símbolo separador @ y una parte que identifica un dominio (en este caso ejemplo.com).11
Existen diversos modos de obtener una cuenta de correo electrónico:

internet

El nombre Internet procede de las palabras en inglés Interconnected Networks, que significa “redes interconectadas”. Internet es la unión de todas las redes y computadoras distribuidas por todo el mundo, por lo que se podría definir como una red global en la que se conjuntan todas las redes que utilizan protocolos TCP/IP y que son compatibles entre sí.
En esta “red de redes” como también es conocida, participan computadores de todo tipo, desde grandes sistemas hasta modelos personales. En la red se dan citas instituciones oficiales, gubernamentales, educativas, científicas y empresariales que ponen a disposición de millones de personas su información.
Internet fue el resultado de un experimento del Departamento de Defensa de Estados Unidos, en el año 1969, que se materializó en el desarrollo de ARPAnet, una red que enlazaba universidades y centros de alta tecnología con contratistas de dicho departamento. Tenía como fin el intercambio de datos entre científicos y militares. A la red se unieron nodos de Europa y del resto del mundo, formando lo que se conoce como la gran telaraña mundial (World Wide Web). En 1990 ARPAnet dejó de existir.Sin embargo, Internet no es sólo World Wide Web, ésta es uno de los muchos servicios ofertados en la red Internet, aunque sí es quizás el más novedoso y atractivo; también conocida como Web o www, en ella podemos combinar textos (a través de documentos hipertextos), sonidos, imágenes y animaciones, gracias a los enlaces (links) que desde sus documentos establecen con otros documentos o ficheros (URL) que se encuentran en la red Internet.
Otros servicios que se prestan son intercambiar o transferir archivos (FTP), acceso remoto a otras computadoras (Telnet), leer e interpretar archivos de computadoras de otro lugar (Gopher), intercambiar mensajes de correo electrónico (e-mail), grupos de discusión, conversaciones en línea (IRC o chat), acceder a foros de debate y grupos de noticias (news), entre otros.
Actualmente se utiliza más que los demás es el http, que permite gestionar contenidos de carácter multimedia, su traducción es protocolo de transferencia por medio de hipertextoque forma la base de la colección de información distribuida por la World Wide Web.
El Internet se ha convertido en una herramienta importante en nuestra sociedad debido a que nos permite la comunicación, la búsqueda y la transferencia de información eliminando las barreras del tiempo y el espacio, y sin requerimientos tecnológicos, ni económicos relativos. Hoy en día, existen más de miles de millones de computadoras conectadas a esta red y esa cifra seguirá en aumento.