Posteado por: MovistarElsalvador | 10 mayo, 2011

EL CIO


Para poder determinar el surgimiento del CIO (Chief Information Officer), primeramente debemos tener en claro cual son las funciones de un Gerente de sistemas. Tales funciones, desde un punto de vista teórico (según el autor José a. Seoane) serian:

Planeamiento (en el ámbito de los proyectos):

–                                  De la coordinación de las tareas de los analistas, diseñadores y  programadores.

–                                  De la Distribución de los equipos.

–                                  De los procesos, simulación de procesos.

–                                  Del control de pruebas operativas, etc.

Control de calidad(en el ámbito de las operaciones)

–                                  De los procesos

–                                  De las pruebas con lotes de simulación, etc.

 

También podemos citar las funciones del Jefe de un Dpto. de Sistemas (según nota de R. Stampinax) desde un punto de vista en donde el Dpto. de Sistemas cumple una función de apoyo para el resto de las áreas de la organización. Tales funciones básicas serian:

·                                                        Planificar el trabajo técnico de la empresa.

·                                                        Relacionarse con las áreas restantes de la empresa.

·                                                        Realizar la asignación de trabajos entre analistas.

·                                                        Controlar la labor técnica.

·                                                        Controlar y elevar manuales, informes técnicos y reportes referentes ala rea de informática.

·                                                        Elevar a la dirección superior los ascensos de personal del área de informática.

·                                                        Supervisar las personas a su cargo, etc.

Entonces, todo  Gerente de Sistemas (o también denominado Jefe del departamento de sistemas) debe cumplir con las funciones mínimas de un gerente, que serian:

·                                                        Planificar: es decir trazar programas de acción (estrategias, presupuestos, etc.)

·                                                        Organizar: distribuir los cargos correspondientes.

·                                                        Coordinar: recurso humanos, técnicos o financieros.

·                                                        Dirigir: influenciar sobre los recursos humanos para el cumplimiento de los objetivos

·                                                        Controlar: medir el cumplimiento de los planes y tomar medidas correctivas en casos necesarios.

·                                                        Responder por sus subordinados: ante su superior.

 

*Primera conclusión: en la practica, de todas las funciones mencionadas se ha demostrado que los Gerentes de Sistemas  se  abocaron  específicamente a la planificación, coordinación, dirección, control, etc. de los recursos técnicos, humanos y financieros  de su área pero  sin tener una fuerte orientación hacia los negocios y entre los cambios por los que atraviesan en la actualidad la mayoría de las empresas, se necesita una persona o responsable que no solo conozca de tecnología y su optima aplicación, también es necesario que esta persona tenga amplios conocimientos de negocios, y también de  la tecnología disponible y la que esta próxima a surgir, para planificar su aplicacion o encauzarla  de manera eficiente y eficaz en el negocio, asumiendo riesgos dentro de un marco razonable.

Las personas más idóneas seguramente serian las que han trabajado toda su vida en el área de sistemas, pero como lo anunciaremos mas adelante, no hace falta que dicha persona  sea específicamente un profesional de sistemas. En conclusión, sobre la base de esta nueva visión de los responsables de la tecnología de información  nace el termino de CIO, es decir el oficial en jefatura de sistemas y su misión seria:

“Proveer visión tecnológica y liderazgo para desarrollar e implementar iniciativas de IT capaces de crear y mantener a la empresa en una posición de liderazgo dentro de un mercado altamente competitivo y constantemente cambiante”.

¿ Cuales deben ser las cualidades  y funciones del CIO?

Un CIO, debe poseer las siguientes cualidades:

1.                   Fuerte orientación hacia los negocios

2.                   Encauzar los beneficios de la tecnología de información hacia la resolución de problemas del negocio

3.                   Capacidad para administrar costos y riesgos

4.                   Identificar y evaluar nuevas tecnologías que sean de beneficio para el negocio

5.                   Habilidad para comunicarse con clientes internos no técnicos y entender sus necesidades

6.                   Habilidad para transformar un lenguaje técnico, en un lenguaje sencillo con términos comprensible para quienes se relacionan con el. (superiores directos y clientes internos no técnicos)

7.                   Poseer fuerte habilidad organizativa

 

Según “la encuesta sobre las habilidades del CIO”, publicada en http://www.cio.com la  habilidad más giratoria para el éxito como CIO es la capacidad de comunicarse con eficacia.

De 500 CIOs que participaron en el examen, 70 por ciento escogieron la comunicación como una de sus tres habilidades más importantes, 58 por ciento eligieron entender el proceso y las operaciones del negocio, y 46 por ciento pusieron el pensamiento estratégico y planear en los tres superiores

¿Por qué es importante para un CIO comunicarse?

Dice Margaret Myers, diputada temporaria, anterior CIO sobre la importancia de comunicarse: “Usted puede tener las ideas más maravillosas del mundo, pero si usted no puede comunicarlas, no diferenciará”.  Ron Margolis, CIO de la universidad del sistema del hospital de México nuevo en Albuquerque, agrega…Si los CIOs no puede comunicarse, sus proyectos morirán en la etapa de la aprobación porque el comité ejecutivo los rechaza o en la etapa de la puesta en práctica cuando los usuarios se oponen a ellos. Mientras tanto, los CIOs que no puede explicar las limitaciones de la tecnología hará frente constantemente a lasexpectativas poco realistas de los usuarios y  ejecutivos.

¿Cómo desarrollar la habilidad de la Comunicación?

Algunos desarrollan la habilidad de la comunicación escuchando y observando como por ejemplo  Marion Mullauer, vice presidente y CIO del editor médico Lippincott Williams y Wilkins establecido jefatura en Philadelphia, ellos aseguran que pasan mucho tiempo en reuniones observando cómo la gente obra recíprocamente con uno para desarrollar esta habilidad

Otros piensan que haciendo el buen contacto visual y el gesticular le ha ayudado a aparecer animados y poderosos.De esta manera les prestan más atención  cuando hablan. Como por ejemplo Myers: “aprendí cómo utilizar mis manos para conseguir mi punto y a hacer un contacto visual mejor,” 

Algunos aseguran que su experiencia en la escritura les ha entrenado para organizar sus pensamientos mejor antes de que ellos hablen. Como es el caso de James McNamee, decano de CIO y del asociado de los servicios informativos de la universidad de la escuela de Maryland de la medicina en Baltimore, el asegura que “ los impulsos CIOs y los wannabes de CIO de hacer tanta escritura profesional mejorará no sólo las ofertas escritas CIOs’, sino que también  hará comunicion verbal mejor”. Ademas McNamee asegura que una parte enorme del trabajo del CIO’s contiene información técnica para los usuarios, los pares y los superiores que no la entienden. Y aconseja a los CIO’s diciendo: “ Una forma a aprender a hablar en su lengua (de los usuarios) está practicando con amigos y  parientes …. aprovéchese de las oportunidades de contestar  las preguntas de sus amigos sobre sus PC caseras”. 

Las principales funciones que debe cumplir son:

1.                   Desarrollar la visión de la tecnología de información

2.                   Supervisar el desarrollo de estándares

3.                   Aplicar la tecnología existente y  ( y por venir) para el crecimiento del negocio

Característica especial: además de saber comunicarse un CIO no necesariamente debe conocer y manejar la tecnología existente, simplemente debe entenderlas,  y saber encauzar sus beneficios hacia el logro de los objetivos de la empresa. Es por esta razón que un CIO puede ser seleccionado desde un área distinta  a la del área de informática, por ejemplo el cargo de un CIO puede ser delegado a un Contador, licenciados de administración, ingenieros, etc. todo profesional que cumpla con las características mencionadas estaría en posición de ser reclutado como un  CIO.

Como es de suponer, un profesional del área de informática seria la persona más idónea para entender la tecnología.

El Papel Que cambia

El número de CIOs corporativo ha aumentado dramáticamente sobre las últimas dos décadas mientras que la gerencia de información se mueve desde las alas de las operaciones de la compañía a la etapa del centro. El papel de CIO’s está cambiando de puesto del negocio técnico de la informática al trabajo más ampliamente concebido de la ‘ gerencia del conocimiento.’ Tan importante hace que el conocimiento del manejo se convierta en el éxito de una compañía. Sin embargo el CIO ha hecho de muchas maneras el papel más desafiador y más dinámico de la dirección del mundo del negocio. A través de los ’80s y del ‘ 90s, las corporaciones han hecho frente a los desafíos dramáticos causados por los cambios en mercados y organizaciones corporativas. Las compañías han experimentado cambios hacia arriba y hacia abajo en su de la escala de operaciones de manera significativa y de fusiones y adquisiciones importantes. En respuesta a estos cambios dramáticos, las compañías han invertido recursos extensos al aplicar reingeniería en sus operaciones. Se ha estimado que las compañías por todo el mundo son gasto $52 mil millones al año en la reingeniería , de el cual $40 mil millones entra anualmente por tecnología de información. Es decir el CIO está en el centro de muchos de los cambios más volátiles y más costosos de la vida de una corporación.

En esta breve descripción de las características y funciones  de un CIO se concluye que el cargo de un CIO es muy reciente y se encuentra prácticamente muy bien definido, por lo que esta en vistas de ser un cargo mas a implementar en todas las empresas donde la información a pasado a ser un activo importante. De igual forma, aunque en las agencia de reclutamiento de personal no esta totalmente definido el cargo de CIO, no seria difícil de imaginar que en poco tiempo será un puesto mas a cubrir en alguna organización (de Argentina).

Por ultimo, como el profesional de sistemas es un candidato a cubrir este puesto, deberá tomar conciencia de la importancia que tiene el conocimiento de la tecnología complementada con una visión de negocios, es por ello que no debe dejarse de lado la visión de los negocios, lo que implica realizar postgrados de Negocios o cursos de estas características. para así tener la oportunidad de llegar en un futuro (no muy lejano)a acceder a un cargo de CIO con la capacitación que se requiere.


Posteado por: MovistarElsalvador | 10 mayo, 2011

El Hogar Digital


El hogar digital es una vivienda que a través de equipos y sistemas, y la integración tecnológica entre ellos, gracias a la domótica, ofrece a sus habitantes funciones y servicios que facilitan la gestión y el mantenimiento del hogar, aumentan la seguridad; incrementan el confort; mejoran las telecomunicaciones; ahorran energía, costes y tiempo, y ofrecen nuevas formas de entretenimiento, ocio y otros servicios dentro de la misma y su entorno sin afectar a las casas normales.

La convergencia de las comunicaciones, la informática y el entretenimiento gracias a las redes de banda ancha es una tendencia consolidada a nivel mundial. El Hogar Digital es la materialización de esta idea de convergencia de servicios de entretenimiento, de comunicaciones, de gestión digital de las viviendas y oficinas y de infraestructuras y equipamiento.

El Hogar Digital, incorpora un sentido más amplio que la domótica. No consiste simplemente en la instalación de dispositivos para controlar determinadas funciones en los edificios (viviendas, indutrias, oficinas…) tales como alarmas, iluminación, climatización, control energético… sino que, al incorporar las tecnologías de la Información y las Telecomunicaciones, permite controlar y programar todos los sistemas tanto en el interior de la vivienda como desde cualquier lugar, en el exterior de la misma, a través de distintas redes como Internet, mediante una interfaz apropiada.

El término de Hogar Digital apareció en España recientemente, siendo acuñado por Telefónica, en su Libro Blanco del Hogar Digital y las Infraestructuras deTelecomunicaciones (mayo de 2003).

Dependiendo de quien lo utilice, el concepto varía:

– Los operadores de telecomunicaciones entienden el Hogar Digital como el hogar Conectado.

– Los fabricantes de equipos lo ven más como la casa domotizada, es decir, la vivienda dotada de una serie de dispositivos que permiten la automatización de la misma el Hogar Digital con la vivienda sostenible (también se ha utilizado el término de “edificios verdes”).

Diferencia entre casa domótica / hogar digital

Una vivienda domótica dispone de un gran número de equipos y sistemas, principalmente autónomos, a los que hay que sumar diferentes redes, como la telefonía, las redes de datos (cableadas e inalámbricas), la televisión, electrodomésticos, equipamiento de audio y video, calefacción, aire-condicionado, seguridad, riego, iluminación, etc.

Para convertirse en un hogar digital, a una casa domótica le faltaría la convergencia de las comunicaciones, la informática y el entretenimiento gracias a las redes de banda ancha es una tendencia consolidada a nivel mundial.

Es necesario resaltar que el Hogar Digital no consiste simplemente en la instalación de dispositivos para controlar determinadas funciones de las viviendas, tales como alarmas, iluminación, climatización, etc.

Áreas

Los productos y sistemas relacionados con el Hogar Digital pueden ser agrupados en las siguientes áreas:

*Confort: conlleva todas las actuaciones que se puedan llevar a cabo que mejoren el confort en una vivienda. Dichas actuaciones pueden ser de carácter tanto pasivo, como activo o mixtas. Ejemplos:

-Un acondicionamiento acústico dentro de una vivienda conlleva a una mejora del confort de sus ocupantes.

-Una red de dispositivos automatizados (domótica) que controlen diversas rutinas de la vivienda (Riego, iluminación, persianas, climatización, redes de ocio, telecontrol…)

-Una climatización eficiente fruto de la combinación de elementos pasivos (materiales) con elementos activos (sondas de temperatura, detección de ventanas abiertas…)
*Seguridad: consiste en una red de seguridad encargada de proteger tanto los Bienes Patrimoniales o alarmas técnicas gestionadas por la domótica(detección de inundación, gas, presencia, incendio, presión, vibración, rotura, apertura…), como la seguridad personal de sus ocupantes, avisando en el caso de incidencia (usuario o CRA) y con carácter disuasorio.

*Telecomunicaciones: son los sistemas o infraestructuras de comunicaciones que posee el hogar. Tanto si hablamos de las redes interiores (Wireless, LAN, Corrientes portadoras…) o de redes de acceso (RTBC, RDSI, ADSL…) o redes publicas (RTV, Radio…) el concepto de Hogar Digital esta ligado a la conectividad de los hogares a la autopista de la información.
*Ocio: hace referencia a todos los sistemas o infraestructuras que posee el hogar en materia de ocio. Como ejemplo están todo tipos de Consolas, Media Center, TDT, dispositivos de distribución de Audio y Video… En definitiva todo sistema de ocio integrable en una red digital.

*Ahorro Energético: el ahorro energético no es algo tangible, sino un concepto al que se puede llegar de muchas maneras. En muchos casos no es necesario sustituir los aparatos o sistemas del hogar por otros que consuman menos sino una Gestión Eficiente de los mismos. Para ello es necesario que las diferentes redes antes mencionadas estén integradas, domótica. Podemos gestionar la climatización del hogar, no regar si esta lloviendo, cerrar persianas con la luz del sol directa, regular la intensidad de las luces a una rango en función de la luz natural, avisarnos si se produce un escape, apagar/encender ciertos aparatos…

*Conclusiones: el Hogar Digital, es un concepto del marketing que solo es entendido bajo una gran integración de las diferentes redes que lo componen, es decir, domótica. De nada nos sirve tener elementos de cada ámbito si no pueden interactuar entre ellos. El mayor problema derivado de la necesidad de integración, son los diferentes protocolos de comunicación de cada producto y su control desde un único interface. Para ello existen ingenierías especializadas que cumplen la necesidad de integración de Hogar Digital o mejor definido, integración domótica.

Posteado por: MovistarElsalvador | 9 mayo, 2011

Cloud Computing


La computación en la nube o informática en la nube, del inglésCloud computing“, es un paradigma que permite ofrecer servicios de computación a través de Internet. La “nube” es una metáfora de Internet.

Introducción

En este tipo de computación todo lo que puede ofrecer un sistema informático se ofrece como servicio,[1] de modo que los usuarios puedan acceder a los servicios disponibles “en la nube de Internet”[2] sin conocimientos (o, al menos sin ser expertos) en la gestión de los recursos que usan.[3] Según el IEEE Computer Society, es un paradigma en el que la información se almacena de manera permanente en servidores de Internet y se envía a cachés temporales de cliente, lo que incluye equipos de escritorio, centros de ocio, portátiles, etc. Esto se debe a que, pese a que las capacidades de los PC han mejorado sustancialmente, gran parte de su potencia se desaprovecha, al ser máquinas de propósito general.[cita requerida]

“Cloud computing” es un nuevo modelo de prestación de servicios de negocio y tecnología, que permite al usuario acceder a un catálogo de servicios estandarizados y responder a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado.

El cambio paradigmático que ofrece computación en nube es que permite aumentar el número de servicios basados en la red. Esto genera beneficios tanto para los proveedores, que pueden ofrecer, de forma más rápida y eficiente, un mayor número de servicios, como para los usuarios que tienen la posibilidad de acceder a ellos, disfrutando de la ‘transparencia’ e inmediatez del sistema y de un modelo de pago por consumo.

Computación en nube consigue aportar estas ventajas, apoyándose sobre una infraestructura tecnológica dinámica que se caracteriza, entre otros factores, por un alto grado de automatización, una rápida movilización de los recursos, una elevada capacidad de adaptación para atender a una demanda variable, así como virtualización avanzada y un precio flexible en función del consumo realizado.

La computación en nube es un concepto que incorpora el software como servicio, como en la Web 2.0 y otros conceptos recientes, también conocidos como tendencias tecnológicas, que tienen en común el que confían en Internet para satisfacer las necesidades de cómputo de los usuarios.Comienzos

El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google, Amazon AWS y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006 en la revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, parrilla), pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico débilmente acoplados (loosely coupled, un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos), este nuevo modelo de nube se estaba aplicando a los servicios de Internet.[4]

Beneficios

  • Integración probada de servicios Red. Por su naturaleza, la tecnología de “Cloud Computing” se puede integrar con mucha mayor facilidad y rapidez con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.[5]
  • Prestación de servicios a nivel mundial. Las infraestructuras de “Cloud Computing” proporcionan mayor capacidad de adaptación, recuperación de desastres completa y reducción al mínimo de los tiempos de inactividad.
  • Una infraestructura 100% de “Cloud Computing” no necesita instalar ningún tipo de hardware. La belleza de la tecnología de “Cloud Computing” es su simplicidad… y el hecho de que requiera mucha menor inversión para empezar a trabajar.
  • Implementación más rápida y con menos riesgos. Podrá empezar a trabajar muy rápidamente gracias a una infraestructura de “Cloud Computing”. No tendrá que volver a esperar meses o años e invertir grandes cantidades de dinero antes de que un usuario inicie sesión en su nueva solución. Sus aplicaciones en tecnología de “Cloud Computing” estarán disponibles en cuestión de semanas o meses, incluso con un nivel considerable de personalización o integración.
  • Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Si actualizamos a la última versión de la aplicación, nos veremos obligados a dedicar tiempo y recursos (que no tenemos) a volver a crear nuestras personalizaciones e integraciones. La tecnología de “Cloud Computing” no le obliga a decidir entre actualizar y conservar su trabajo, porque esas personalizaciones e integraciones se conservan automáticamente durante la actualización.
  • Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía consumida es sólo la necesaria, reduciendo notablemente el desperdicio.

Desventajas

  • La centralización de las aplicaciones y el almacenamiento de los datos origina una interdependencia de los proveedores de servicios.
  • La disponibilidad de las aplicaciones están desatadas a la disponibilidad de acceso a internet.
  • Los datos “sensibles” del negocio no residen en las instalaciones de las empresas por lo que podría generar un contexto de alta vulnerabilidad para la sustracción o robo de información y ademas sale mucho mas económico que comprar un antivirus.
  • La confiabilidad de los servicios depende de la “salud” tecnológica y financiera de los proveedores de servicios en nube. Empresas emergentes o alianzas entre empresas podrían crear un ambiente propicio para el monopolio y el crecimiento exagerado en los servicios.
  • La disponibilidad de servicios altamente especializados podría tardar meses o incluso años para que sean factibles de ser desplegados en la red.
  • La madurez funcional de las aplicaciones hace que continuamente estén modificando sus interfaces por lo cual la curva de aprendizaje en empresas de orientación no tecnológica tenga unas pendientes pequeñas.
  • Seguridad. La información de la empresa debe recorrer diferentes nodos para llegar a su destino, cada uno de ellos ( y sus canales) son un foco de inseguridad. Si se utilizan protocolos seguros, HTTPS por ejemplo, la velocidad total disminuye debido a la sobrecarga que requieren estos protocolos.
  • Escalabilidad a largo plazo. A medida que más usuarios empiecen a compartir la infraestructura de la nube, la sobrecarga en los servidores de los proveedores aumentará, si la empresa no posee un esquema de crecimiento óptimo puede llevar a degradaciones en el servicio o jitter altos.

Capas

Software como servicio

El software como servicio (en inglés software as a service, SaaS) se encuentra en la capa más alta y caracteriza una aplicación completa ofrecida como un servicio, en-demanda, vía multitenencia —que significa una sola instancia del software que corre en la infraestructura del proveedor y sirve a múltiples organizaciones de clientes. El ejemplo de SaaS conocido más ampliamente es Salesforce.com, pero ahora ya hay muchos más, incluyendo las Google Apps que ofrecen servicios básicos de negocio como el e-mail. Por supuesto, la aplicación multitenencia de Salesforce.com ha constituido el mejor ejemplo de cómputo en nube durante unos cuantos años. Por otro lado, como muchos otros jugadores en el negocio del cómputo en nube, Salesforce.com ahora opera en más de una capa de la nube con su Force.com, que ya está en servicio, y que consiste en un ambiente de desarrollo de una aplicación compañera (“companion application”), o plataforma como un servicio.[6]

Plataforma como servicio

La capa del medio, que es la plataforma como servicio (en inglés platform as a service, PaaS), es la encapsulación de una abstración de un ambiente de desarrollo y el empaquetamiento de una carga de servicios. La carga arquetipo es una imagen Xen (parte de Servicios Web Amazon) conteniendo una pila básica Red (por ejemplo, un distro Linux, un servidor Red, y un ambiente de programación como Perl o Ruby). Las ofertas de PaaS pueden dar servicio a todas las fases del ciclo de desarrollo y pruebas del software, o pueden estar especializadas en cualquier área en particular, tal como la administración del contenido.

Los ejemplos comerciales incluyen Google App Engine, que sirve aplicaciones de la infraestructura Google. Servicios PaaS tales como éstos permiten gran flexibilidad, pero puede ser restringida por las capacidades que están disponibles a través del proveedor.

Microsoft apuesta por Windows Azure. Plataforma de desarrollo en la nube que permite crear y ejecutar aplicaciones codificadas en varios lenguajes y tecnologías, como .NET, Java y PHP.

 Infraestructura como servicio

La infraestructura como servicio (infrastructure as a service, IaaS) se encuentra en la capa inferior y es un medio de entregar almacenamiento básico y capacidades de cómputo como servicios estandarizados en la red. Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas se concentran (por ejemplo a través de la tecnología de virtualización) para manejar tipos específicos de cargas de trabajo —desde procesamiento en lotes (“batch”) hasta aumento de servidor/almacenamiento durante las cargas pico. El ejemplo comercial mejor conocido es Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y servicios de almacenamiento esenciales (respectivamente). Otro ejemplo es Joyent cuyo producto principal es una línea de servidores virtualizados, que proveen una infraestructura en-demanda altamente escalable para manejar sitios Web, incluyendo aplicaciones Web complejas escritas en Ruby en Rails, PHP, Python, y Java.

Tipos de nubes

  • Las nubes públicas se manejan por terceras partes, y los trabajos de muchos clientes diferentes pueden estar mezclados en los servidores, los sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios finales no conocen qué trabajos de otros clientes pueden estar corriendo en el mismo servidor, red, discos como los suyos propios.[7]
  • Las nubes privadas son una buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de servicio. Las nubes privadas están en una infraestructura en-demanda manejada por un solo cliente que controla qué aplicaciones debe correr y dónde. Son propietarios del servidor, red, y disco y pueden decidir qué usuarios están autorizados a utilizar la infraestructura.
  • Las nubes híbridas combinan los modelos de nubes públicas y privadas. Usted es propietario de unas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa del escalado aprovisionada externamente, en-demanda, pero añaden la complejidad de determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas pueden sentir cierta atracción por la promesa de una nube híbrida, pero esta opción, al menos inicialmente, estará probablemente reservada a aplicaciones simples sin condicionantes, que no requieran de ninguna sincronización o necesiten bases de datos complejas.

Comparaciones

La computación en nube usualmente es confundida con la computación en grid (red) (una forma de computación distribuida por la que “un súper computador virtual” está compuesto de un conjunto ó cluster enlazado de ordenadores débilmente acoplados, actuando en concierto para realizar tareas muy grandes).[8]

Controversia

Dado que la computación en nube no permite a los usuarios poseer físicamente los dispositivos de almacenamiento de sus datos (con la excepción de la posibilidad de copiar los datos a un dispositivo de almacenamiento externo, como una unidad flash USB o un disco duro), deja la responsabilidad del almacenamiento de datos y su control en manos del proveedor.

La computación en nube ha sido criticada por limitar la libertad de los usuarios y hacerlos dependientes del proveedor de servicios.[9] Algunos críticos afirman que sólo es posible usar las aplicaciones y servicios que el proveedor esté dispuesto a ofrecer. Así, el London Times compara la computación en nube con los sistemas centralizados de los años 50 y 60, en los que los usuarios se conectaban a través de terminales “gregarios” con ordenadores centrales. Generalmente, los usuarios no tenían libertad para instalar nuevas aplicaciones, y necesitaban la aprobación de administradores para desempeñar determinadas tareas. En suma, se limitaba tanto la libertad como la creatividad. El Times argumenta que la computación en nube es un retorno a esa época y numerosos expertos respaldan la teoría.

De forma similar, Richard Stallman, fundador de la Free Software Foundation, cree que la computación en nube pone en peligro las libertades de los usuarios, porque éstos dejan su privacidad y datos personales en manos de terceros. Ha afirmado que la computación en nube es “simplemente una trampa destinada a obligar a más gente a adquirir sistemas propietarios, bloqueados, que les costarán más y más conforme pase el tiempo.


Posteado por: MovistarElsalvador | 9 mayo, 2011

Nanotecnología Primer nanogenerador eléctrico para uso práctico


espués de seis años de intenso trabajo, unos científicos han desarrollado el primer nanogenerador comercialmente viable, un chip flexible que puede aprovechar los movimientos del cuerpo humano para generar electricidad.

Este desarrollo representa un importante paso hacia la producción de dispositivos electrónicos portátiles que obtengan energía de los movimientos corporales sin tener que usar baterías o enchufes eléctricos.

Los nanogeneradores desarrollados por el equipo de Zhong Lin Wang del Instituto Tecnológico de Georgia, en Estados Unidos, podrían hacer un poco más fácil la vida cotidiana de muchas personas en el futuro.

Las últimas mejoras se han traducido en un nanogenerador lo bastante potente como para alimentar diodos láser, diodos emisores de luz, y pantallas comunes de cristal líquido.

Se ha comprobado ya que mediante el almacenamiento en un condensador de las cargas generadas, la energía disponible sirve para alimentar periódicamente un sensor y permitir la transmisión inalámbrica de la señal de éste.

Si los creadores de este nanogenerador pueden continuar mejorándolo al mismo ritmo que hasta ahora, será también útil para aplicaciones más ambiciosas. Por ejemplo, instalar nanogeneradores dentro de suelas de zapatos podría servir para abastecer de energía

[Img #2317]

Un nanogenerador.) (Foto: Zhong Lin Wang, GIT)

teléfonos móviles y otros aparatos pequeños, al aprovechar la energía de las pisadas del usuario. También sería posible implantar en pacientes bombas de insulina que aprovechasen los latidos del corazón, y disponer de sensores ambientales alimentados por nanogeneradores mecidos por la brisa.

Wang y sus colegas han demostrado la viabilidad comercial del último nanogenerador usándolo para alimentar a un LED y a una pantalla de cristal líquido, como los usados en muchos dispositivos electrónicos, tales como calculadoras y ordenadores. En este caso, la energía aprovechada para generar electricidad es la recibida por el nanogenerador al apretarlo entre dos dedos.

La clave de la tecnología radica en los nanocables de óxido de zinc. Estos son piezoeléctricos, es decir que pueden generar una corriente eléctrica cuando se les estira o flexiona. El movimiento del cual se aproveche su energía puede ser prácticamente cualquier movimiento corporal, como caminar, los latidos del corazón, o incluso el discurrir de la sangre a través del cuerpo. Los nanocables también pueden generar electricidad en respuesta al viento, el rodar de neumáticos, o muchos otros tipos de movimiento.


Copyright © 1996-2011 NCYT | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.
Depósito Legal B-47398-2009, ISSN 2013-6714
Todos los textos y gráficos son propiedad de sus autores. Prohibida la reproducción total o parcial por cualquier medio sin consentimiento previo por escrito.
Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de NCYT.


Ya hay robots con forma de serpiente, gusano u oruga, que se aprovechan de las ventajas que tienen esos animales para trepar por sitios difíciles y pasar por espacios muy estrechos. Sin embargo, desplazarse reptando, sin disponer de ruedas ni patas, o siendo éstas muy pequeñas, acarrea avanzar despacio, incluso a campo abierto y en superficies planas donde las patas o ruedas podrían proporcionar una velocidad muy superior. Por otra parte, hay muchos robots cuyas ruedas les permiten moverse rápido sobre ciertos terrenos, pero que son incapaces de introducirse por espacios estrechos o trepar de la manera en que lo hacen los robots reptantes.
Un nuevo robot, del que ya se ha construido un primer prototipo, disfruta de ambas capacidades. En forma de oruga, se desplaza reptando por espacios estrechos o empinados. Pero en una superficie plana y espaciosa, es capaz de adquirir forma de rueda y avanzar rodando.
[Img #2174]
El mérito de la idea para este concepto hay que otorgárselo a la Naturaleza. El equipo de robotistas que ha creado al nuevo robot decidió observar las estrategias que algunas orugas tienen para abandonar temporalmente su exasperante lentitud y escapar a gran velocidad de un depredador.
Algunas orugas tienen la insólita habilidad de, en fracciones de segundo, saltar al tiempo que se enroscan sobre sí mismas de tal modo que adquieren la forma de una rueda y pueden rodar a gran velocidad, alejándose así de depredadores.
El equipo de Huai-Ti Lin, de la Universidad Tufts, en Massachusetts, vio en esta estrategia del mundo animal un concepto trasladable a la ingeniería. Así que Lin y sus colaboradores decidieron diseñar y construir una versión robótica de la ágil oruga, con el fin de comprobar la viabilidad práctica del  diseño y de paso profundizar en los entresijos de la mecánica corporal de esas espectaculares orugas.
[Img #2175]
El resultado es el robot denominado GoQBot. El modelo actual de pruebas mide 10 centímetros de largo, y es capaz de adoptar la forma de rueda en menos de 100 milésimas de segundo.
Las orugas biológicas no usan más a menudo esta estrategia de adoptar la forma de una rueda porque es sólo eficaz sobre superficies lisas, exige un gran esfuerzo físico, y a menudo las acrobacias realizadas terminan de maneras impredecibles.
[Img #2176]
En el caso de los robots, como es posible dotarles de energía extra y de la adecuada precisión informática para que sus acrobacias den los resultados previstos, esta estrategia de adoptar la forma de una rueda podría ser aprovechada para situaciones cotidianas. Modelos avanzados de robot con el diseño base del GoQBot podrían circular como ruedas a gran velocidad por espacios llanos y amplios, como por ejemplo por una carretera, hasta llegar a su lugar de destino, por ejemplo un edificio derrumbado. Y allí cambiar su configuración de rueda pasando a reptar entre cascotes para intentar llegar a sitios bajo estos en los que pudiera haber personas atrapadas.
opyright © 1996-2011 NCYT | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.
Depósito Legal B-47398-2009, ISSN 2013-6714
Todos los textos y gráficos son propiedad de sus autores. Prohibida la reproducción total o parcial por cualquier medio sin consentimiento previo por escrito.
Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de NCYT.

En lo que constituye el primer estudio de su tipo, unos investigadores han encontrado que los dispositivos portátiles de comunicación, como los Smartphones (teléfonos inteligentes), no están haciendo que las personas dejen de usar medios tradicionales como los periódicos o la televisión.

En cambio, esos dispositivos portátiles de comunicación sí llenan los espacios de la rutina diaria de la gente en los que otros medios no están disponibles o no resultan cómodos de usar.

Eso sugiere que el uso de dispositivos portátiles de comunicación avanza en su creciente popularización por un camino diferente al que siguieron en su día tecnologías como la televisión.

Por lo general, los nuevos medios compiten con los medios viejos y los desplazan en cierta medida, como la televisión hizo con la radio, pero sin erradicarlos.

En el estudio participaron 166 participantes con edades de entre 19 y 68 años.

John Dimmick y Gregory Hoplamazian de la Universidad Estatal de Ohio, y John Christian Feaster de Universidad Rowan en Nueva Jersey, analizaron cuándo y dónde los participantes eran más propensos a utilizar las diferentes tecnologías para acceder a las noticias.

En total, los participantes realizaron 1.843 sesiones (periodos de tiempo en que sólo usaban un medio de comunicación para obtener noticias sobre deportes, el estado del tiempo, y otros temas).

En general, los dispositivos portátiles de comunicación todavía son poco usados para acceder a noticias. En la muestra de población analizada, sólo fueron usados en el 7 por ciento de las sesiones.

[Img #2164]

(Foto: NCYT)

Los ordenadores fueron el método más popular para acceder a las noticias; en cerca del 24 por ciento de todas las sesiones se usaron ordenadores de escritorio, y en alrededor del 15 por ciento ordenadores portátiles. La televisión fue usada en cerca del 29 por ciento de todas las sesiones. Tanto la radio como los periódicos de papel fueron usados en aproximadamente el 9 por ciento de las sesiones.

Sin embargo, los resultados muestran que cada tipo de tecnología tuvo su propia situación en la que fue particularmente popular.

Por ejemplo, los dispositivos portátiles de comunicación fueron claramente el método preferido de acceso a las noticias durante un día de trabajo en que la gente estuviera en movimiento.

Por su parte, la televisión siguió siendo la preferida para acceder a las noticias en casa durante la noche y las últimas horas de la tarde.

La situación en que los periódicos fueron los preferidos resultó ser por la mañana.

Los ordenadores, tanto portátiles como de escritorio, fueron usados con más frecuencia para acceder a las noticias en el puesto de trabajo.

Los participantes usaron la radio con más frecuencia en sus automóviles durante los desplazamientos entre el domicilio y el lugar de trabajo, por la mañana y por la tarde.


Copyright © 1996-2011 NCYT | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.
Depósito Legal B-47398-2009, ISSN 2013-6714
Todos los textos y gráficos son propiedad de sus autores. Prohibida la reproducción total o parcial por cualquier medio sin consentimiento previo por escrito.
Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de NCYT.

Posteado por: MovistarElsalvador | 4 mayo, 2011

Toda la memoria tecnológica de la humanidad está casi digitalizada


Un nuevo estudio internacional, que se publica en la revista Science Express, reporta un inventario sobre la capacidad tecnológica – analógica y digital – que se ha almacenado y comunicado en las últimas dos décadas a nivel mundial.

[Img #1269]

(Foto: Ian Britton)

En 2007, la humanidad fue capaz de almacenar 295 billones de megabytes óptimamente comprimidos, comunicar casi dos cuatrillones de megabytes, y llevar a cabo 6,4 billones de MIPS (millón de instrucciones por segundo) en ordenadores de uso general.

“Para poner uno de esos números en perspectiva, si esos 295 exabytes de información almacenada fueran guardados en CD-ROMs, la pila de CDs llegaría de la Tierra hasta más allá de la luna”, explican Martin Hilbert, de la Universidad del Sur de California (EEUU) y Priscila López, de la Universidad Abierta en Santiago (Chile), investigadores principales del estudio.

La capacidad mundial para la telecomunicación bidireccional (internet y redes telefónicas) creció un 28 % por año, mientras que la capacidad para la difusión de información unidireccional a través de canales de transmisión (tales como televisión y radio) creció de forma más modesta (6 % por año).

“Sin embargo, esta cantidad de información es aún más pequeña que el número de bits – unidad de información más pequeña- almacenados en todas las moléculas de ADN de un solo adulto humano”, afirman los expertos, que inspeccionaron 60 categorías de tecnologías entre 1986 y 2007.

“Los resultados reflejan nuestra transición completa a la era digital. La memoria tecnológica de la humanidad ha sido casi completamente digitalizada”, declaran los expertos. Mientras que en el 2000 el 75 % de nuestra información almacenada estaba en formato analógico (principalmente en video cassettes), el 94 % de ella estaba en formato digital en 2007.

Hilbert y López estiman que “la capacidad tecnológica mundial para computarizar la información vía dispositivos de aplicación específica (tales como microcontroladores electrónicos o procesadores gráficos) se ha duplicado cada 14 meses durante las últimas décadas, mientras que la capacidad de los ordenadores de uso general (como es el caso de los PCs) se ha duplicado cada 18 meses”.

“La capacidad de telecomunicación global per cápita se ha duplicado cada dos años y 10 meses, mientras que la capacidad de almacenaje mundial per cápita ha requerido alrededor de tres años y cuatro meses para incrementarse de manera doble”, concluyen. (Fuente: SINC)


Copyright © 1996-2011 NCYT | (Noticiasdelaciencia.com / Amazings.com). Todos los derechos reservados.
Depósito Legal B-47398-2009, ISSN 2013-6714
Todos los textos y gráficos son propiedad de sus autores. Prohibida la reproducción total o parcial por cualquier medio sin consentimiento previo por escrito.
Excepto cuando se indique lo contrario, la traducción, la adaptación y la elaboración de texto adicional de este artículo han sido realizadas por el equipo de NCYT.


Un profesor de ingeniería electrónica está ayudando a un grupo de historiadores del arte a hacer una pequeña labor detectivesca usando algoritmos para identificar cuáles de los cuadros de Vincent Van Gogh proceden de los mismos rollos de lienzos originales.

C. Richard Johnson (hijo), de la Universidad de Cornell, ha dejado temporalmente sus clases para así poder participar en una investigación en el Museo Van Gogh y otros museos en los Países Bajos.

Entre otras cosas, los algoritmos están permitiendo a Johnson y sus colegas determinar la cantidad de hilos individuales por centímetro en los lienzos sobre los que pintó Van Gogh, algo que si se hiciera a mano requeriría que varias personas dedicasen su vida entera a esta labor.

Los resultados prácticos de este trabajo son muchos. Por ejemplo, se está consiguiendo validar como auténticos algunos cuadros del genial pintor de los que había dudas sobre su autenticidad. Las fechas de creación asumidas hasta ahora para ciertos cuadros también se están corrigiendo en algunos casos.

Johnson ya ha trabajado con el Museo Van Gogh en ocasiones anteriores. Buena parte de su trabajo, al principio sobre todo, se centró en detectar posibles cuadros falsificados.

[Img #2243]

Se han creado mapas de densidad para analizar los lienzos de Van Gogh. (Foto: Cornell U.)

Johnson y sus colaboradores Don Johnson, de la Universidad Rice, y Rob Erdmann, de la Universidad de Arizona, ya han determinado la cantidad de hilos de los 320 cuadros de Van Gogh que son propiedad del Museo Van Gogh, y más de dos docenas pertenecientes a otros museos, aproximadamente el 60 por ciento de todos los cuadros de Van Gogh custodiados en los museos del mundo.


Por María José Cantarino © Blog RCySost Telefónica S.A.

Ayer tuve la oportunidad de responder a las cuestiones de los lectores del Grupo Joly sobre el uso que hacen los menores de Internet y los teléfonos móviles, y tengo que decir que entre ellos había muchos padres preocupados por la seguridad y privacidad de sus hijos en la red.

Una de las cuestiones que más preocupa a los padres es cómo educar a los hijos en el uso de las tecnologías. La respuesta es, desde mi punto de vista, con diálogo porque debemos hacerles entender el concepto de protección de su privacidad. También es importante educar sin desperdiciar todas las posibilidades que ofrece el móvil o acceder a Internet. Por ejemplo, no es buena idea prohibirles que publiquen contenidos en la red. Lo que tenemos que trasmitirles es que no suban fotos en actitud comprometedora, ni la de otra persona sin su autorización. También es básico que comprendan que no es conveniente subir información sobre la edad, el lugar de residencia, el colegio, el trabajo, opiniones personales, hacer comentarios despectivos, ni críticas a personas.

Los padres, como es normal, están preocupados por la información que suben sus hijos a las redes sociales. Mi consejo es que hay que usar las redes sociales e Internet en general con sentido común, activar las políticas de privacidad, impidiendo que personas extrañas accedan a nuestra información o no dejar que nuestro perfil sea localizado desde un buscador. Estas pautas son similares a las que tenemos en nuestra vida en general: si no ponemos un cartel en la puerta de casa diciendo que nos vamos de vacaciones, ¿por qué lo ponemos en el “muro” de nuestra red social?

Una de las preguntas más interesantes del encuentro ha sido si se puede legislar que para darse de alta en una red social se deba identificar al usuario, lo cual sería muy conveniente, pero, en estos momentos, no hay tecnología adecuada para ello. Quizá en un futuro sea obligatorio el uso del DNI electrónico para hacerlo.

Otra de las preguntas más repetida ha sido qué software es recomendable para controlar el uso de Internet. Sin duda, instalar un filtro de contenidos en el ordenador es aconsejable pero, aunque ayuda, es aún más importante comenzar a navegar conjuntamente, es decir, no porque tengamos el último software del mercado, debemos dejar de acompañar y supervisar a nuestros hijos en este aprendizaje. Además, es conveniente instalar el ordenador en un lugar público de la casa, como el salón o la cocina, para poder echar un ojo a la pantalla rápidamente o estar disponibles para consultas.

Y, sobre todo, mi recomendación a los padres es que nunca reaccionen de manera alarmista ante un problema ocurrido a través de Internet o el móvil. La solución no es quitar a los niños el acceso a sus herramientas preferidas. Con esto sólo conseguiremos que los niños nunca más nos pidan ayuda.

Posteado por: MovistarElsalvador | 4 mayo, 2011

Pon tu voz a tu currículum vitae con un código QR


Si hace poco CVjobs sorprendía a propios y extraños con un currículum vitae con la realidad aumentada, ahora Victor Petit presenta la alternativa con otra iniciativa basada en la tecnología y capaz de llevar hasta el papel la voz para que el departamento de recursos humanos pueda escucharte mientras lo lee. Muy sencillo y al alcance de todo el mundo. El vídeo no deja dudas.

Este joven francés ha inventado un nuevo tipo de currículum vitae que reproduce voz gracias a un teléfono móvil y un código QR. El mecanismo es muy sencillo: en la parte posterior de su CV, Petit ha puesto una foto suya con un código en el lugar de la boca y el espacio para poner un smarphone encima. El código enlaza directamente con un vídeo de YouTube grabado y subido por él en el que describe sus cualidades. La originalidad es que ese vídeo solo representa su boca y encaja perfectamente con el resto de la imagen.

“Intenté crear un CV que me permitiese expresarme de forma oral en el mismo momento en el que leyesen la versión en papel. La combinación de una hoja de papel y un código QR me pareció la mejor forma de conseguirlo”, ha explicado. La mejor forma de entenderlo es viendo el vídeo.

codigo qr cv

También con etiquetas NFC

Y si quieres ir más allá y aprovechar la tecnología punta, también puedes poner en marcha este sistema utilizando etiquetas NFC (Near Field Communication). La ventaja es que son más rápidas en su activación ya que no hace falta poner en marcha la cámara y esperar a que lea el código, basta con acercar el teléfono.

Si te ha parecido una gran idea, aprende cómo crear tus etiquetas NFC y ponla en práctica, ya que es más sencillo de lo que parece. Como recogía el estudio publicado por CWjobs, un 74% de los trabajadores del sector de las telecomunicaciones se siente más seguros de sí mismos haciendo una presentación en persona antes que sobre el papel. Una realidad que también se puede aplicar a este nuevo sistema, ya que es la voz grabada la que tiene que encandilar a quien te va a contratar.

Victor Petit tiene más vídeos creados por el mismo en su página web.

« Newer Posts - Older Posts »

Categorías