viernes, 24 de octubre de 2014

Tema 11: Internet 2 como herramienta de investigación científica

Internet2, I2, o UCAID (University Corporation for Advanced Internet Development) es un concepto que se refiere al uso de Internet como herramienta educativa y de investigación científica que funciona como una red de cómputo con capacidades avanzadas separada de la Internet comercial actual. La misma ha crecido rápidamente debido a la ventaja que representa el poder acceder a grandes bases de datos, la capacidad de compartir información entre colegas y facilitar la coordinación de grupos de trabajo.

Se diferencia de la Internet por el ancho de banda y porque se usa principalmente para proyectos de investigación universitaria.

El origen de esta herramienta se basa en el espíritu de colaboración entre las universidades y su objetivo principal es desarrollar la próxima generación de aplicaciones telemáticas para facilitar las misiones de investigaciones y educación de las universidades, además de ayudar en la formación de personal capacitado en el uso y manejo de redes avanzadas de cómputo.



Algunas de las aplicaciones en desarrollo dentro del proyecto Internet 2 a nivel internacional son: telemedicina, bibliotecas digitales, laboratorios virtuales, manipulación a distancia y visualización de modelos 3D; se rescata que no serían posibles de desarrollar con la tecnología del Internet de hoy.

Internet2 posee una serie de características en tecnologías de redes avanzadas, esto para transferir información a alta velocidad utilizando fibra óptica. En los Estados Unidos el proyecto que lidera este desarrollo es Internet2, en Canadá el proyecto CA*net3, en Europa los proyectos TEN-155 y GEANT, y en Asia el proyecto APAN. Adicionalmente, todas estas redes están entrelazadas, formando una gran red avanzada de alta velocidad de alcance mundial.



En la página http://www.internet2.edu/ pueden encontrar información más detallada del trabajo de Internet2. 

RedCLARA

RedCLARA, y su conexión a GÉANT fueron ejecutadas por el proyecto ALICE (América Latina Interconectada Con Europa), cuya meta es proveer conexiones de Internet dedicadas para las comunidades de investigación y educación de la región latinoamericana, y de ésta con Europa.

En el marco del Programa @LIS, el 3 de junio de 2003, con la firma del contrato establecido entre los oficiales de la Comisión Europea y los representantes de DANTE, se inició el proyecto ALICE. El contrato, por un valor de €12.5 millones (€10 millones aportados por la Comisión Europea y €2.5 millones, por los socios latinoamericanos), serviría para la creación de una infraestructura de redes de investigación en América Latina e interconectarla con su par europea, GÉANT, mediante el protocolo de Internet (IP).

Para llevar adelante el objetivo de ALICE, DANTE -institución a cargo de la gestión de GÉANT-, en su rol de coordinador del Proyecto, se asoció en Europa con las Redes Nacionales de Investigación y Educación (RNEI) de España (RedIRIS), Francia (RENATER), Italia (GARR) y Portugal (FCCN), y en América Latina, ALICE se asociaba con CLARA y con las RNEI de los 18 países cuya participación era admitida por el reglamento del programa @LIS: RETINA (Argentina), ADSIB (Bolivia), RNP (Brasil), REUNA (Chile), Universidad del Cauca (Colombia), CRnet (Costa Rica), RedUniv (Cuba), CEDIA (Ecuador), RAICES (El Salvador), RAGIE (Guatemala), UNITEC (Honduras), CUDI (México), CNU en representación de RENIA (Nicaragua), RedCyT (Panamá), ARANDU (Paraguay), RAP (Perú), RAU (Uruguay) y REACCIUN (Venezuela).

Backbone


Internet avanzada en Costa Rica

RedCONARE

El Consejo Nacional de Rectores (CONARE) es la nueva red nacional de Costa Rica, esta reemplaza a Red Nacional de Investigación Avanzada, CR2Net, la cual operó del 2004 al 2006 como un consorcio de instituciones interesadas en el aprovechamiento de las redes avanzadas.

En noviembre de 2008, en el marco de la reunión CLARA sostenida en Rio de Janeiro los días 27 y 28 de, Alejandro Cruz, Director General del Centro Nacional de Alta tecnología (CeNAT) de Costa Rica, entidad dependiente del CONARE, firmó la reinserción de su país a RedCLARA y ALICE bajo la misión de contribuir en la solución de los problemas nacionales mediante la investigación y la transferencia científica y tecnológica, con la participación activa de los equipos de investigadores y estudiantes de posgrado de las cuatro universidades estatales costarricenses, en conjunto con otros sectores del país, incluyendo tanto el gobierno como el sector privado.

Miembros

La RedCONARE agrupa a cuatro universidades estatales logrando el trabajo colaborativo entre 76 unidades de investigación y 147 programas de postgrado.

Tema 10: Bibliotecas modernas: ¿cuál es mi visión?

Las visiones para las bibliotecas públicas del futuro se compondrán de decisiones estratégicas en cuatro dimensiones diferentes, cada una de las cuales consta de un flujo continuo de opciones que subyacen entre dos extremos. 

Dimensión 1: De Bibliotecas Físicas a Virtuales 

En un extremo de esta primera dimensión se encuentra el caso de una biblioteca totalmente física, que tiene dos componentes –unas instalaciones y material físico. La biblioteca completamente física ya no es estratégicamente realista sino que, más bien, el extremo más realista del flujo continuo de lo físico a lo virtual es una biblioteca física que ha añadido una presencia Web a sus instalaciones esencialmente físicas y una selección cuidadosa de material virtual a su amplia colección de material físico, que probablemente se han convertido en una colección principalmente externa compartida con otras bibliotecas de su región. 

En el otro extremo de esta dimensión se encuentra el caso de una biblioteca totalmente virtual, que también incluye “instalaciones” y materiales. Sin embargo, a diferencia de la biblioteca física, es posible imaginar una biblioteca virtual totalmente realista en la que estos dos elementos llegan a ser virtuales. Los usuarios de esta biblioteca virtual satisfacen sus necesidades –búsqueda y adquisición de material, obtención de respuestas a sus preguntas, participación en reuniones– accediendo a la Web de la biblioteca desde cualquier parte a través de Internet. Este extremo constituye el reto más difícil para la biblioteca pública en su forma actual. 

Aunque actualmente la mayoría de las bibliotecas públicas se encuentran cerca del extremo físico de este espectro de posibilidades, casi todas se sienten atraídas hacia el extremo virtual por el rápido crecimiento de la disponibilidad de material digital en Internet. ¿En qué parte de esta dimensión aspiran las bibliotecas a funcionar en el futuro?

Dimensión 2: De Bibliotecas para Personas Individuales a Bibliotecas Comunitarias 

La segunda dimensión trata de la atención de la biblioteca hacia sus usuarios: personas individuales o la comunidad. En un extremo de esta dimensión se encuentra la biblioteca centrada totalmente en el individuo, para satisfacer las necesidades de sus usuarios uno a uno. El mobiliario y equipo se diseñan para que las personas puedan encontrar y utilizar los recursos de la biblioteca con privacidad y comodidad, con las mínimas distracciones y en salas silenciosas de lectura. El personal de la biblioteca ayuda a cada usuario a satisfacer sus necesidades, ya sea el acceso a materiales o ayuda para resolver una duda o para crear textos u objetos digitales, sirviéndose de los sistemas de recomendación para seleccionar el material adecuado para cada usuario basándose en sus elecciones anteriores. Además, esta biblioteca puede ofrecer acceso a tecnologías que no están al alcance de la mayoría de las personas debido a su coste o dificultad de uso como, por ejemplo, impresoras de libros, pantallas muy grandes o videojuegos de última generación. La mayoría de estos servicios, con la excepción del mobiliario y el equipo, también se pueden ofrecer virtualmente a través de Internet. 

Una biblioteca que se centra en la comunidad lo hace, por ejemplo, ofreciendo a grupos espacios para trabajar y reunirse; convocando a grupos para trabajar en proyectos de la comunidad, celebrando en sus salas eventos de interés comunitario; creando y manteniendo archivos de documentos locales, objetos, memorias y recuerdos y organizando presentaciones y exposiciones de materiales de interés local. También puede ofrecer tecnologías avanzadas y caras que, de lo contrario, no estarían al alcance de los miembros y grupos de la comunidad. Estos servicios están disponibles en la biblioteca física y, en la medida de lo posible, en Internet. 

Dimensión 3: De Bibliotecas para la Colección a Bibliotecas para la Creación 

Esta dimensión trata de la forma en que la biblioteca atiende a sus usuarios. En un extremo está la biblioteca puramente para la colección, un lugar para ir a asimilar información, adquirir conocimiento, disfrutar del arte y entretenerse. Ya sea en la forma física o virtual, esta biblioteca desempeña el papel tradicional de las bibliotecas ofreciendo un acceso rápido y gratuito a sus colecciones. 

En el otro extremo está la biblioteca para la creación, que ha ampliado su función y se ha convertido en un lugar donde se crean los materiales que transmiten la información, el conocimiento, el arte y el entretenimiento utilizando el equipo especializado y las instalaciones de la biblioteca. Sus usuarios se encuentran en una situación privilegiada para contribuir al desarrollo del material que ya existe en la biblioteca. 

La biblioteca para la creación ha ampliado su función y se ha convertido en un lugar donde se crean los materiales que transmiten la información, el conocimiento, el arte y el entretenimiento utilizando el equipo especializado y las instalaciones de la biblioteca.

Dimensión 4: De Bibliotecas Portal a Bibliotecas Archivo 

La última dimensión trata de la propiedad del material de una biblioteca al que sus usuarios acceden. En un extremo se encuentra la biblioteca portal, una “ventana” a través de la cual los usuarios de la biblioteca pueden acceder a una gran variedad de recursos que son propiedad de otras instituciones. Esta biblioteca puede tener una instalación física con acceso a la red y bibliotecarios que ayudan al usuario a encontrar los recursos apropiados, aunque tenga poco o ningún material físico o virtual propio. Debido a sus mínimas necesidades físicas, estas bibliotecas pueden encontrarse en locales comerciales u oficinas de centros comerciales, edificios de oficinas u oficinas del gobierno local, posiblemente incluso en las escuelas públicas. 

En el otro extremo se encuentra la biblioteca archivo, cuya función es contener materiales documentales de diversos géneros y soportes, ya sean físicos o virtuales. Una biblioteca archivo pura se parecería a una biblioteca física de libros raros. Las bibliotecas públicas locales son bibliotecas archivo en el sentido de que tienen colecciones de libros comerciales, revistas, CDs y DVDs, aunque pueden convertirse en el único archivo para los materiales locales de los tipos mencionados para la biblioteca comunitaria, tanto en el formato físico como virtual. Incluso entre las colecciones de libros tradicionales y otros tipos de materiales, pueden convertirse en archivos para géneros o temas especializados, actuando como el sitio de referencia de estos materiales para otras bibliotecas y sus usuarios.


Ilustración de Jennifer Bishop.

Dirección estratégica para una biblioteca del futuro.

A la hora de escoger una visión para el futuro y formular una estrategia para su consecución, una biblioteca debe tener en cuenta varios factores clave. La elaboración meditada de la estrategia teniendo en cuenta estos factores puede ayudar a la biblioteca a prever los cambios y tomar medidas que puedan mejorar sus posibilidades de conseguir su visión deseada en lugar de reaccionar pasivamente a las tendencias a medida que suceden.

Tomaremos el proceso de Definición de la Dirección Estratégica que ha desarrollado Roger E. Levien durante los últimos 25 años a través de su eficaz aplicación en la Corporación Xerox, el Centro Nacional para Aplicaciones de Supercomputación de la Universidad de Illinois y otras empresas Fortune 500 e instituciones sin ánimo de lucro. La biblioteca debe:

1- Establecer claramente su misión y objetivos— su naturaleza específica y las necesidades de sus usuarios.

2- Considerar cuidadosamente las tendencias e influencias externas importantes que probablemente le afectarán en un futuro previsible, presentándolas como un conjunto de premisas que comparten los responsables de la institución—una visión explícita del mundo. 

3- Realizar un análisis crítico de qué puntos fuertes o ventajas tiene en relación con sus probables “competidores” como, por ejemplo, Netflix, Google, y Amazon. Estas ventajas incluyen tanto lo que hace o sus competencias básicas como lo que tiene o su capital estratégico. 

Juntos, estos puntos fuertes constituyen la parte principal de la visión de la biblioteca. 

4- Basarse en los imperativos estratégicos que se derivan tanto de un análisis de la visión del mundo como de la visión de la biblioteca en su conjunto. Los imperativos estratégicos son acciones que se deben llevar a cabo a la vista de esas realidades. Por ejemplo: “Esta biblioteca debe asegurarse de que todos los bibliotecarios futuros que contrate tengan una buena formación y experiencia en la evaluación y uso de las fuentes de información de Internet”. 

5- Examinar las visiones alternativas para su futuro, algunas de las cuales se describen en este informe. A continuación, debe evaluar cuáles de estas visiones responden a los imperativos estratégicos y son posibles dado el contexto externo (visión del mundo) y teniendo en cuenta la competencia en función de los puntos fuertes de la institución 
(visión de la biblioteca).

6- Tomar una decisión basándose en esta información para dirigir el curso estratégico hacia una visión específica que combine las decisiones estratégicas tomadas en cada una de las cuatro dimensiones descritas anteriormente. En este punto, puede percibirse que la institución carece de ciertas competencias o valores estratégicos básicos esenciales para el logro de esta visión. Por lo tanto, un elemento importante de la puesta en práctica de la estrategia será tomar medidas para adquirir estas competencias o valores mediante la contratación, formación o cooperación con otra institución.

Mientras se pone en práctica la estrategia, no se deben perder de vista las premisas representadas por la visión del mundo y la visión de la biblioteca. Cambios importantes en estas premisas pueden justificar una corrección a mitad de camino en la estrategia. Por lo tanto, aunque sea el resultado de cuidadosas reflexiones, ninguna estrategia se puede considerar inmutable.

Referencia bibliográfica:
Levien, Roger E. (2011). Enfrentarse al futuro: Visiones Estratégicas para la Biblioteca Pública del Siglo XXI. Oficina para Políticas de Actuación en Tecnologías de la Información : ALA. Informe Nº 4, junio. Recuperado de: http://www.ala.org/offices/sites/ala.org.offices/files/content/oitp/publications/policybriefs/enfrentarse_al_futuro.pdf (consulta 21 octubre 2014)

Encuentre artículos relacionados aquí: http://www.ala.org/offices/oitp/publications/policybriefs

Ejemplo de aplicación de estrategias de una biblioteca de futuro:

Biblioteca a-Go-Go

 Galería de imágenes:
https://www.flickr.com/photos/ccclib/sets/72157623556476300/


Tema 9: Interfaz Humano - Computador

Empecemos por definir qué es interacción humano-computadora. La misma es una disciplina, se encarga del estudio del intercambio de información mediante algún tipo de software y/o hardware entre los humanos y las computadoras. Específicamente, se enfoca en el diseño, evaluación e implementación de dispositivos tecnológicos interactivos, es decir, el interfaz humano-computador.




El principal objetivo de esta disciplina es que la interacción entre los y las usuarias con dispositivos electrónicos sea eficiente, enfocándose principalmente en el diseño, evaluación e implementación de dispositivos tecnológicos interactivos, eso incluye: minimizar los errores, incrementar la satisfacción del usuario, disminuir la frustración referente al uso del dispositivo, hacer más eficientes y productivas las tareas rutinarias y de trabajo de las personas.

Las técnicas pioneras para la interacción persona-computador datan del año 1963, cuando el inicio de los gráficos por computadora los marca Ivan Sutherland quien desarrolló Sketchpad, siendo el primer programa informático que permitía la manipulación directa de objetos gráficos (primeros dibujos por computadora).

¿Cuáles acciones caracterizan que una interfaz humano-computador es buena?

Inicialmente, la comunicación entre el usuario y la computadora debe ser buena. Segundo, la interfaz tiene que estar diseñada pensando en las necesidades del usuario, y finalmente, tiene que haber entendimiento entre ambas partes para que la interacción sea posible.


Para que la usabilidad de un computador sea atractiva debe poseer una serie de características que harán que su interacción con humanos se mantenga, estas características deben ser: aumentar la satisfacción y comodidad de los usuarios, aumentar la tasa de visitantes y clientes de un sitio web, disminuir la tasa de errores cometidos por usuarios, disminuir los costos de asistencia y ayuda al usuario, incrementar la productividad de los usuarios, mejorar la imagen y el prestigio de nuestras aplicaciones, reducir los costos de aprendizaje y reducir los costos de diseño, rediseño y mantenimiento.

Existen varios tipos de interfaces humano-computador, entre ellas podemos encontrar: sistemas críticos (de alto costo), para usos industriales y comerciales, aplicaciones de oficina, domésticas y de entretenimiento, interfaces de exploración, creativas y cooperativas, y sistemas socio/técnicos (que involucran a mucha gente dentro de largos períodos de tiempo y comúnmente son creadas por el gobierno).

Finalmente, mostramos algunas imágenes que reflejan la evolución de la interfaz de Windows a lo largo de la historia:


1982-1985. Interfaz Windows 1.0


1987-1990. Interfaz Windows 2.0


1990-1994. Interfaz Windows 3.0


1995-1998. Interfaz Windows 95


1998-2000. Interfaz Windows 98


2005-2001. Interfaz Windows XP


2006-2008. Interfaz Windows Vista


2009. Interfaz Windows 7


2012-2013. Interfaz Windows 8

Ahora contános, ¿recuerdas cómo fue tu primera experiencia con algún equipo tecnológico? o bien, ¿cómo fueron las primeras experiencias que recordás con el uso de la tecnología y/o aplicaciones informáticas?

lunes, 20 de octubre de 2014

Tema 8: ¿Qué es Internet?


La Real Academia Española define Internet como la “red informática mundial, descentralizada, formada por la conexión directa entre computadoras mediante un protocolo especial de comunicación”. La definición de internet también se puede encontrar como la gran biblioteca virtual mundial, donde cualquier persona en cualquier parte del mundo puede acceder a este gigantesco archivo digital donde el conocimiento, el ocio y el mundo laboral convergen en un mismo espacio llamado Internet.


Internet representa el máximo exponente de la globalización, es un espacio donde podemos comprar, vender o compartir cualquier producto, servicio o información con cualquier persona y lugar del mundo, es decir internet es un lugar donde interactuamos globalmente.



El origen de la Internet

La primera red interconectada nace en 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959. Se ha documentado que el origen de Internet se da gracias a  ARPANET (Advanced Research Projects Agency Network), una red de computadoras del ministerio de defensa de EEUU que propició el surgimiento de Internet en un proyecto militar estadounidense el cual buscaba crear una red de computadoras que uniera los centros de investigación  de defensa en caso de ataques, que pudieran mantener el contacto de manera remota y que siguieran funcionando a pesar de que alguno de sus nodos fuera destruido.  Sin embargo su objetivo era el de investigar mejores maneras de usar los computadores, yendo más allá de su uso inicial como grandes máquinas calculadoras, y luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos dando un soporte social.

El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables.

A inicios de los ochentas los usuarios eran científicos y curiosos, en los noventas desaparece ARPANET y propicia el paso a las redes interconectadas, en este caso el Internet que se desarrolló en el European Laboratory for Particle Physics (CERN) de Suiza en 1989. En el CERN de Ginebra se creó el lenguaje HTML. En 1990 el mismo equipo construyó el World Wide Web (WWW) y el primer servidor web el cual dispone actualmente de servicios que proporciona la red como el correo electrónico, acceso remoto a máquinas, conversaciones en línea, entre otros.

Internet es una oportunidad de difusión mundial de la información y un medio de colaboración e interacción entre los individuos y sus computadores independientemente de su localización geográfica, además se ha comparado con bibliotecas, enciclopedias tradicionales permitiendo además, creación de buscadores muy frecuentados como Google, Amazon, eBay o Yahoo.

Futuro de la Internet

Existen múltiples estudios con predicciones sobre lo que Internet traerá a nuestras vidas en unos años, y lo que se percibe es que los avances tecnológicos impactarán de forma positiva, pero también negativa. Los dispositivos móviles serán la principal herramienta de conexión a Internet para la mayoría de la gente en el 2020. Aunque iniciativas como “One laptop per child”, para llevar las comunicaciones digitales a todo el mundo, tendrán éxito a ciertos niveles, el móvil, con una relativa potencia informática, será la principal herramienta de conexión a Internet y la única para una gran mayoría de la población mundial. Las interfaces con Internet basadas en reconocimiento de voz y táctiles prevalecerán y estarán aceptadas dentro de unos 11 años. Para entonces, los dispositivos de comunicación más comúnmente utilizados incorporarán reconocimiento de voz. 

De igual manera, las tecnologías hápticas basadas en la retroalimentación táctil, se habrán desarrollado por completo y, por ejemplo, una pequeña terminal de acceso a Internet permitirá desplegar y utilizar un teclado completo virtual sobre cualquier superficie para aquellos momentos en los que no se desea “hablar” por el equipo. También será común ver a la gente teclear en el aire sobre un teclado proyectado y visible sólo para ellos. Algunos hablan, incluso, de una interfase basada en el pensamiento, con computadoras controladas por la mente humana. 


A modo de reflexión, Noam Chomsky plantea su pensamiento sobre el internet, cuando dice que el telégrafo y las bibliotecas públicas tuvieron un impacto mucho mayor en las comunicaciones y el acceso a la información que internet. Activista político y ácido crítico del poder, Chomsky cree que las revelaciones del exanalista de inteligencia Edward Snowden sobre el espionaje en Estados Unidos son una prueba de que los gobiernos pueden aliarse con las grandes corporaciones para usar la red contra los ciudadanos.

Su opinión con respecto al internet y las bibliotecas se refleja en las siguientes frases: “Hace un siglo, cuando se instalaron bibliotecas públicas en la mayoría de las ciudades estadounidenses, la disponibilidad de información y el incremento en la riqueza cultural fue ampliamente mayor que el que genera internet”. “Ahora no tienes que cruzar la calle para ir a la biblioteca, puedes tener acceso a información en tu propio living, pero la información ya estaba allí, cruzando la calle”. “La diferencia entre internet y una biblioteca es más pequeña que la diferencia entre la ausencia de una biblioteca y una biblioteca… En la biblioteca además al menos puedes confiar en que el material tendrá cierto valor porque pasó por cierto proceso de evaluación”. “Internet es una suma de ideas azarosas y es difícil distinguir entre lo que alguien pensó mientras cruzaba la calle y lo que otro estudió en profundidad”.

¿Qué es Web 2.0?

El término fue utilizado por primera vez por Darcy DiNucci en 1999, en su artículo "Fragmented future", aunque no fue hasta 2004 cuando Tim O'Reilly lo hizo popular. El término surgió para referirse a nuevos sitios web que se diferenciaban de los sitios web más tradicionales englobados bajo la denominación Web 1.0. La característica diferencial es la participación colaborativa de los usuarios. Un ejemplo de sitio web 1.0 sería la Enciclopedia Británica donde los usuarios pueden consultar en línea los contenidos elaborados por un equipo de expertos. Como alternativa web 2.0 se encuentra la Wikipedia en la cual los usuarios que lo deseen pueden participar en la construcción de sus artículos. Poco tiempo después, en el año 2005, Tim O'Reilly definió y ejemplificó el concepto de Web 2.0 utilizando el mapa conceptual elaborado por Markus Angermeier.

La Web 2.0 o Web social, se refiere a una segunda generación en la historia de los sitios web. Su denominador común es que están basados en el modelo de una comunidad de usuarios. Abarca una amplia variedad de redes sociales, blogs, wikis y servicios multimedia interconectados cuyo propósito es el intercambio ágil de información entre los usuarios y la colaboración en la producción de contenidos. Todos estos sitios utilizan la inteligencia colectiva para proporcionar servicios interactivos en la red donde el usuario tiene control para publicar sus datos y compartirlos con los demás.

Cabe mencionar que las diferencias entre la primera y la segunda era de la Web no se basan en un cambio a nivel tecnológico en los servidores, aunque naturalmente se ha dado un considerable avance en el hardware; es el enfoque de la Red, los objetivos y la forma en la que los usuarios comenzaron a percibir la información en línea lo que caracteriza este renacer, que tuvo lugar silenciosa pero velozmente, a comienzos del nuevo milenio.


Entre las características de la WEB 2.0 se pueden nombrar entre las más generales, las siguientes:

  • El sitio debe estar listo para la entrada de cualquier persona
  • El sitio no debe actuar como un "jardín sin cosechar inminentemente": la información debe poderse introducir y extraer fácilmente
  • Los usuarios deberían controlar su propia información
  • Basada exclusivamente en la Web: los sitios Web 2.0 con más éxito pueden ser utilizados enteramente desde un navegador
  • La existencia de links es requisito imprescindible

La Web 2.0 trae consigo una nueva legalidad referida a Licencias Creative Commons (licencias de publicación con algunas restricciones definidas por el usuario):
● Reconocimiento (Attribution): El material creado por un artista puede ser distribuido, copiado y exhibido por terceras personas si se muestra en los créditos.
● No Comercial (Non commercial): El material original y los trabajos derivados pueden ser distribuidos, copiados y exhibidos mientras su uso no sea comercial.
● Sin Obra Derivada (No Derivate Works): El material creado por un artista puede ser distribuido, copiado y exhibido pero no se puede utilizar para crear un trabajo derivado del original.
● Compartir Igual (Share alike): El material creado por un artista puede ser modificado y distribuido pero bajo la misma licencia que el material original.


domingo, 19 de octubre de 2014

Tema 7: Almacenes de datos y Minería de datos

Definición de Almacén de Datos


Un Almacén de Datos (o Data Warehouse) es una gran colección de datos que recoge información de múltiples sistemas fuentes u operacionales dispersos, y cuya actividad se centra en la Toma de Decisiones -es decir, en el análisis de la información- en vez de en su captura. Una vez reunidos los datos de los sistemas fuentes se guardan durante mucho tiempo, lo que permite el acceso a datos históricos; así los almacenes de datos proporcionan al usuario una interfaz consolidada única para los datos, lo que hace más fácil escribir las consultas para la toma de decisiones.

Diferencias entre Base de Datos y Almacén de Datos

Base de Datos Operacional
Almacén de Datos
Datos operacionales
Datos del negocio para Información
Orientado a aplicación
Orientado al sujeto
Actual
Actual + Histórico
Detallada
Detallada + Resumida
Cambia continuamente
Estable

Data Warehousing

Data Warehousing es el proceso que facilita la creación y explotación de un Almacén de Datos.
Los Sistemas de Data Warehousing incluyen funcionalidades como:
  • Integración de bases de datos heterogéneas (relacionales, documentales, geográficas, archivos, etc.)
  • Ejecución de consultas complejas no predefinidas visualizando el resultado en forma gráfica y en diferentes niveles de agrupamiento y totalización de datos.
  • Agrupamiento y desagrupamiento de datos en forma interactiva.
  • Análisis del problema en términos de dimensiones.
  • Control de calidad de datos.

Características del Almacén de Datos

  • Organizado en torno a temas. La información se clasifica en base a los aspectos que son de interés para la empresa.
  • Integrado. Es el aspecto más importante. La integración de datos consiste en convenciones de nombres, codificaciones consistentes, medida uniforme de variables, etc.
  • Dependiente del tiempo. Esta dependencia aparece de tres formas:
    • La información representa los datos sobre un horizonte largo de tiempo.
    • Cada estructura clave contiene (implícita o explícitamente) un elemento de tiempo (día, semana, mes, etc.).
    • La información, una vez registrada correctamente, no puede ser actualizada.
  • No volátil. El Almacén de Datos sólo permite cargar nuevos datos y acceder a los ya almacenados, pero no permite ni borrar ni modificar los datos.

Arquitectura Data Warehouse

La estructura básica de la arquitectura Data Warehouse incluye:
  1. Datos operacionales. Origen de datos para el componente de almacenamiento físico del Almacén de Datos.
  2. Extracción de datos. Selección sistemática de datos operacionales usados para formar parte del Almacén de Datos.
  3. Transformación de datos. Procesos para sumarizar y realizar cambios en los datos operacionales.
  4. Carga de datos. Inserción de datos en el Almacén.
  5. Almacén. Almacenamiento físico de datos de al arquitectura Data Warehouse.
  6. Herramienta de acceso. Herramientas que proveen acceso a los datos.


Estructura lógica del Almacén de Datos

La estructura lógica de un Almacén de Datos está compuesta por los siguientes niveles:
  • Metadatos. Describen la estructura de los datos contenidos en el almacén.
    • Están en una dimensión distinta al resto de niveles.
  • Datos detallados actuales. Obtenidos directamente del procesado de los datos.
    • Forman el nivel más bajo de detalle.
    • Ocupan mucho espacio.
    • Se almacenan en disco, para facilitar el acceso.
  • Datos detallados históricos. Igual que los anteriores, pero con datos correspondientes al pasado.
    • Se suelen almacenar en un medio externo, ya que su acceso es poco frecuente.
  • Datos ligeramente resumidos. Primer nivel de agregación de los datos detallados actuales.
    • Corresponden a consultas habituales.
    • Se almacenan en disco.
  • Datos muy resumidos. Son el nivel más alto de agregación.
    • Corresponden a consultas que se realizan muy a menudo y que se deben obtener muy rápidamente.
    • Suelen estar separados del Almacén de datos, formando Supermercados de Datos (Data Marts).



Estructura física del Almacén de Datos

La estructura física puede presentar cualquiera de las siguientes configuraciones:
  • Arquitectura centralizada. Todo el Almacén de datos se encuentra en un único servidor.
  • Arquitectura distribuida. Los datos del Almacén se reparten entre varios servidores. Asignando cada servidor a uno o varios temas lógicos.
  • Arquitectura distribuida por niveles. Refleja la estructura lógica del Almacén, asignando los servidores en función del nivel de agregación de los datos que contienen. Un servidor está dedicado para los datos de detalle, otro para los resumidos y otro para los muy resumidos.
  • Cuando los datos muy resumidos se duplican en varios servidores para agilizar el acceso se habla de Supermercados de datos (Data Marts).

Software Data Warehouse

  • Red Brick Warehouse
  • Essbase
  • Pilot Decission Support Suite
  • Microsoft SQL Server



http://www2.rhernando.net/modules/tutorials/viewexttutorial.php?tid=41

Minería de Datos (Data Mining)

Definición de Minería de Datos

La Minería de Datos (Data Mining) es un conjunto de técnicas y procesos de análisis de datos que permite extraer información de bases de datos y Almacenes de Datos mediante la búsqueda automatizada de patrones y relaciones.

Modelos de Minería de Datos

  • De verificación. El usuario solicita que se verifique cierta hipótesis, cuando se le responde puede refinar su pregunta, y así sucesivamente.
  • De descubrimiento. Con este método se descubre nueva información que no estaba previamente en el Almacén de Datos (o, en su caso, en las bases de datos). No necesita intervención por parte del usuario. Se buscan patrones en los datos, o bien elementos fuera de la norma.
  • Predictivo. Se realizan predicciones sobre el comportamiento futuro de variables a partir de los patrones existentes en los datos. El usuario indica sobre qué variable quiere obtener la predicción.

Fases de la Minería de Datos

  1. Selección y preprocesamiento de los datos. En esta fase se decide sobre qué datos se va a trabajar, tanto desde el punto de vista físico como lógico. También se depuran los datos. (Este paso no es necesario si se trabaja sobre un Almacén de Datos, porque los datos ya están preparados).
  2. Búsqueda de patrones. Se analizan los datos para extraer significado e información. El resultado será un informe.
  3. Interpretación y evaluación. Se interpretan los resultados de la fase anterior.

Técnicas de Minería de Datos

Las técnicas más utilizadas para la extracción de la información son las siguientes:
  • De consulta e informe. Es la forma tradicional de obtener información a partir de bases de datos relacionales. Consiste en la utilización de herramientas que facilitan las consultas SQL y presentan los resultados en forma de tablas, diagramas o gráficos. Además pueden utilizar técnicas estadísticas para analizar los datos obtenidos.
  • Son apropiadas para el modelo de minería de verificación.
  • De inteligencia artificial. Utilizan estructuras de datos y algoritmos basados en árboles de decisiones, redes neuronales, técnicas de clustering y lógica difusa. Forman parte de los agentes inteligentes.
  • Son apropiadas para los modelos predictivo y de descubrimiento.
  • De análisis multidimensional. Se basan en la utilización de bases de datos multidimensionales. Se utilizan para cruzar los datos de múltiples formas y con distintos niveles de agregación.
Además, se utilizan técnicas de detección de desviación y de programación genéticas, entre otras.


http://www2.rhernando.net/modules/tutorials/viewexttutorial.php?tid=38