martes, 10 de enero de 2023

La revolución de la inteligencia artificial a nuestro alcance con ChatGPT

 

En el mundo de la tecnología, algunas revoluciones se dan cuando aparecen productos, que sin ser tan innovadores, reciben el cariño de las personas y esa popularidad los hace ver como productos revolucionarios, aún cuando la tecnología ya ha estado siendo utilizada.

Ejemplos lo vimos con el creciemiento de las PCs, el iPhone y ahora con un producto ChatGPT.

Basicamente, este producto utiliza inteligencia artificial para comunicarse, mediante texto, de la forma como lo haría un ser humano.

Esta tecnología está lejos de ser perfecta y para la mayoría de las personas, que suelen tener conocimientos generales, pero no especializados, lo que pueden utilizar es algo realmente avanzado.

La aplicación de inteligencia artificial ha estado con nosotros desde hace un par de años.  Por lo que nos dicen los fabricantes, sabemos que están siendo aplicadas a ciertos productos, que en teoría los debe hacer más listos o quizás más confiables.

ChatGPT es uno de los productos de inteligencia artificial que desarrolla una compañía llamada OpenAi y cuyo acceso, hasta el momento, es gratuito.  Se ha abierto al público en versión previa o beta, con el fin que las personas la utilicen y su uso ayude a mejorar el producto.

Con el fin de conocer un poco más de ChatGPT, a manera de entrevistta, le hicimos unas cuantas preguntas, para que su inteligencia nos respondiera.

A continuación verán las preguntas que le hicimos y las respuestas que obtuvimos.  La entrevista fue realizada en inglés y utilizamos el traductor de Google para mostrarla en español.  No ha sido editada en contenido, sólo en forma, para facilitar la lectura.  

A continuación la entrevista.

¿Qué es ChatGPT?

  1. GPT (abreviatura de "Transformador preentrenado generativo") es un tipo de modelo de lenguaje desarrollado por OpenAI. GPT-3 es la tercera iteración de este modelo, y se ha entrenado en un conjunto de datos de texto muy grande, lo que le permite generar texto similar al humano.
  2. GPT-3 es un modelo basado en redes neuronales que ha sido entrenado en un conjunto de datos de miles de millones de palabras de texto. Este entrenamiento permite que el modelo genere texto similar al texto escrito por humanos en términos de estilo y contenido. El modelo se puede ajustar en un conjunto de datos más pequeño para realizar tareas específicas, como traducción de idiomas, respuesta a preguntas y resumen de texto. También se puede utilizar para generar escritura creativa, como poesía o cuentos.
  3. ChatGPT es una versión específica de GPT-3 optimizada para el contexto conversacional, que se puede usar como chatbot para la entrada de lenguaje natural del usuario. Puede responder a una pregunta o generar texto similar a un humano en un contexto conversacional.

¿Cómo funciona el chat gpt?

GPT (Transformador preentrenado generativo) es un tipo de modelo de lenguaje desarrollado por OpenAI. Es un modelo basado en redes neuronales que ha sido entrenado en un conjunto de datos masivo de datos de texto (como libros, artículos y sitios web) para generar texto similar al humano.

El modelo se entrena previamente en este gran conjunto de datos y luego se ajusta en un conjunto de datos más pequeño específico para una determinada tarea, como la traducción de idiomas o la respuesta a preguntas.

A un alto nivel, GPT funciona prediciendo la siguiente palabra en una oración, dadas las palabras anteriores. Lo hace procesando la entrada a través de varias capas de redes neuronales. La primera capa, llamada capa de incrustación, convierte cada palabra de la entrada en una representación vectorial densa. Luego, estos vectores son procesados por múltiples capas de autoatención y redes neuronales de avance, que permiten que el modelo comprenda las relaciones entre las palabras en la entrada y use esta comprensión para generar la siguiente palabra.

Finalmente, la salida de la capa final se alimenta a una capa lineal, que genera una distribución de probabilidad sobre el vocabulario para la siguiente palabra. La palabra con la probabilidad más alta se elige como salida y este proceso se repite hasta que se cumple una condición de parada (como generar un número fijo de palabras o llegar a un token especial como <fin>).

¿Cómo funciona el chat gpt?

Preguntamos nuevamente pero cambiando un poco el orden de las palabras.  No se puede apreciar en español, pero la respuesta. O el estilo de la respuesta si varió.

GPT (Transformador preentrenado generativo) es un tipo de modelo de lenguaje desarrollado por OpenAI. Utiliza técnicas de aprendizaje profundo, específicamente un tipo de red neuronal llamada transformador, para generar texto de sonido natural.

El modelo se entrena previamente en un conjunto de datos masivo de texto, como libros, artículos y sitios web. Durante el entrenamiento, el modelo aprende patrones en el texto, como la forma en que se juntan las palabras para formar oraciones y el contexto en el que se usan típicamente ciertas palabras.

Una vez que se entrena el modelo, se puede usar para una variedad de tareas basadas en el idioma, como completar texto, traducir y resumir. Por ejemplo, cuando se usa para completar texto, el modelo puede tomar una oración parcial como entrada y generar una probable continuación de la oración.

En términos de aplicación de chatbot, GPT se puede usar como un componente para generar una respuesta desde un contexto dado, se puede entrenar en un dominio específico, como servicio al cliente o soporte técnico. Con la capacidad de generar respuestas similares a las humanas, hace que la conversación con el chatbot sea menos robótica y más atractiva para el usuario.

Tenga en cuenta que GPT es un modelo complejo con muchos parámetros, por lo que requiere una máquina poderosa para ejecutarse y una gran cantidad de datos para ajustarse a un dominio específico.

¿Qué software se usa con chat gpt?

Hay varios marcos de software y bibliotecas que se pueden usar para trabajar con modelos GPT (Transformador preentrenado generativo). Algunos de los más populares incluyen:

  • TensorFlow: TensorFlow es una biblioteca de software de código abierto para el aprendizaje automático desarrollada por Google. Proporciona un conjunto de herramientas para crear y entrenar modelos de aprendizaje automático y se puede usar para ajustar modelos GPT o para crear nuevos modelos basados en GPT.
  • PyTorch: PyTorch es otra biblioteca de aprendizaje automático de código abierto que proporciona una funcionalidad similar a TensorFlow. Es popular entre los investigadores y desarrolladores por su simplicidad y flexibilidad, y también se puede utilizar para ajustar modelos GPT o crear nuevos modelos basados en GPT.
  • Hugging Face: Hugging Face es una empresa que proporciona una plataforma y varias bibliotecas que facilitan el uso de modelos GPT en diversas aplicaciones. La plataforma incluye modelos preentrenados para varios idiomas y tareas, así como herramientas para ajustar e implementar estos modelos.
  • OpenAI GPT-3 Playground : OpenAI proporciona un área de juegos fácil de usar para GPT-3, donde puede probar sus capacidades en diferentes tareas y generar texto, código, respuesta a preguntas y más.

Estos marcos y bibliotecas ofrecen una amplia gama de funcionalidades, desde el preprocesamiento de datos y el entrenamiento de modelos hasta la implementación, lo que permite al usuario tener mucha flexibilidad en el diseño de la canalización.

Vale la pena señalar que para usar GPT necesitará algunos recursos computacionales y una buena cantidad de conocimiento en aprendizaje automático y redes neuronales, pero también hay proveedores de servicios basados en la nube como Amazon Web Services, Google Cloud y Microsoft Azure que permiten le permite acceder a los recursos computacionales que necesita para usar los modelos GPT.

¿Qué puede hacer chat gpt?

GPT, que significa "Transformador preentrenado generativo", es un tipo de modelo de lenguaje que se entrena en un gran conjunto de datos de texto. Como resultado, tiene la capacidad de comprender y generar texto similar al humano.

Hay varias cosas que un chatbot basado en GPT puede hacer:

  • Finalización de texto: GPT puede completar un mensaje u oración determinada, lo que lo hace útil para generar texto como titulares, artículos de noticias e incluso código.
  • Comprensión del idioma: GPT puede comprender el significado del texto en lenguaje natural, lo que lo hace útil para tareas como responder preguntas, resumir texto e incluso traducir entre idiomas.
  • Generación de texto: GPT puede generar texto nuevo que es similar en estilo y contenido a un aviso dado, lo que lo hace útil para crear cosas como poesía, letras de canciones e incluso historias.
  • Chit-chat: GPT también se puede usar como un chatbot que puede generar respuestas similares a las humanas de manera conversacional. Esto podría usarse en servicio al cliente, asistentes virtuales, etc.
  • Tareas personalizadas: los desarrolladores pueden usar GPT para entrenar tareas específicas como generar correos electrónicos, escribir una descripción del producto y más.

Vale la pena señalar que GPT no es un sistema basado en reglas, está entrenado en un gran conjunto de datos de ejemplos de texto, por lo que la calidad del texto generado variará según la calidad y la relevancia de los datos de entrada.

Hasta aquí nuestra conversación con ChatGPT.

Si bien no es perfecta y tampoco el primer producto disponible, lo que si nos permite es vivir la experiencia e imaginar todo lo que vamos a poder hacer en un futuro con la Inteligencia Artificial y sus aplicaciones de acceso público.

Pueden tener acceso a esta herramienta a través del siguiente enlace:  

https://openai.com/blog/chatgpt/

jueves, 22 de octubre de 2020

De la autopista de la información a nuestros días

Hace un tiempo atrás, cuando las ideas, el desarrollo y la innovación se centraba en el World Wide Web, surgieron dos términos o frases que regularmente eran utilizadas juntas como complementos y como especie de gancho, para demostrar que quienes la utilizaban en una misma frase, eran unos gurús tecnológicoes, eran los verdaderos expertos en la materia.  Estas frases eran la autopista de la información y la sociedad del conocimiento.

A finales de los noventas e inicios de los dos mil, cuando surgió Google cambió la forma como se buscaba y navegaba por información en el World Wide Web.  Las llamadas punto com estaban en pleno apojeo, por doquier aparecían ideas futuristas sobre como el Internet cambiaría nuestras vidas, etc.  

Había mucha inversión económicas en posibles ideas potenciales, era la época dorada de los sueños de las punto com en donde surgieron muchos conceptos no probados.  Luego el sueño terminó y la burbuja tecnológica se desinfló.  Muy pocas ideas sobrevivieron.

Google, no fue el primer buscador, pero a través del tiempo claramente ha demostrado ser el más exitoso.  Antes de su aparición, no se podía confiar en un solo buscador para encontrar lo que se deseaba.  Era común utilizar dos y hasta tres buscadores para poder encontrar la información que necesitábamos.

En aquel entonces Google se caracterizaba por contratar solamente profesionales titulados en las áreas de las matemáticas, física y principalmente con preparación a nivel de doctorado.  Por mucho tiempo, se decía que el nivel de preparación académica del profesional que trabajaba en Google era lo que hacía la diferencia.

Internet era el gran repositorio de información a la cual recurrían todos para buscar más facilmente lo que no se poodía encontrar en los libros y era visto principalmente como complemento el complemento perfecto a los conocimientos que se impartían en las escuelas y universidades.

Con el tiempo, las ideas sobre la autopista de la información y la sociedad del conocimiento fueron quedando desfasados a medida que Internet se convirtió en proveedor de servicios de toda índoles y en el nuevo lugar ideal para hacer negocios a nivel global.  Se podría decir que el verdadero cambio se dió con la aparición de los teléfonos inteligentes, específicamente, con el iPhone.  

La aparición de los teléfonos inteligentes ha permitido que la información, contenida en Internet, sea más fácil de encotrar y que la misma esté siempre disponible al alcance de la mano de cada persona.  El acceso a la misma dejó de ser un privilegio, dejó de ser un beneficio.

El fácil acceso a la información facilitó el naciemiento de nuevas formas de aprendizaje, en donde la conveniencia de lo remoto abarató la adquisición de conocimiento.  El aprendizaje centralizado en las universidades dejó de ser exclusividad de estas instituciones.  Ahora se puede aprender o especializar desde casi cualquier tema, con sólo tener acceso a Internet y a un costo mucho más bajo.

Actualmente, una persona autodidacta que no ha asistido a una universidad, puede tener la misma preparación, los mismos conocimientos que alguien que asistió a una universidad, esos sí, guardando las proporciones.

Y este cambio ha influido en la forma como se está contratando al recurso humano, en donde, en algunas ocasiones el título ya no tiene tanto valor, o por lo menos no el peso que solía tener.  

Actualmente, el talento y otras capacidades que son dificiles de aprender, están siendo de mayor importancia.  Esto es porque en algunos casos, se valora la habilidad del individuo de poder adquirir el conocimiento que se requiere, antes que la organización cubra el costo de un entrenamiento formal.  El conocimiento dejó de ser un privilegio, un bien de acceso restringido.  Ahora está a la disposición del que lo desee adquirir.  

Actualmente estamos viviendo un cambio, en el cual la infraestructura que soporta a Internet, está siendo esencial.  Hablamos de la importancia que tienen los datos, como elemento básico de información.  El desarrollo tecnológico cada vez abarata más los costos de adquisición de datos y cada vez aumentan más las capacidades para capturarlos, procesarlos y almacenarlos. 

Ya no se habla de la autopista de la información.  Cuando se utilizaba este termino, de seguro jamás se podría haber pensado donde estaríamos y lo que estaríamos haiendo hoy.  

Ahora la visión es más amplia.  Los datos son nuestra materia prima.  Por todos lados estamos hablando de Internet de las cosas, de machine learning, inteligencia artificial, realidad aumentada, etc., que requieren grandes volúmenes de datos.

El futuro del cual se hablaba hace unos años atrás se desvaneció.  El desarrollo tecnológico evolucionó más de lo que se había previsto.  

Así estamos hoy y veremos como amanecemos mañana.

miércoles, 12 de agosto de 2020

La conveniencia de comprar una computadora de segunda mano

La pandemia que estámos viviendo nos ha tomado a todos por sorpresa.  Desde inicio de este año 2020 estuvimos viendo como, poco a poco la enfermedad se estaba  exparciendo de ciudad en ciudad.  La llegada a nuestro país era sólo cosa de tiempo.  Lo que ha sucedido después de la llegada es algo que será material para debate y aquí no se discutirá.

En lo que no estábamos preparados era en el impácto económico que las medidas de precaución tendrían en nuestra economía.  Un día nuetra rutina era la de siempre y al día siguiente, todo cambió radicalemente.  

Sin poder tener una idea de cuanto tiempo toamaría regresar a la "normalidad", hemos visto cómo nos hemos convertido en expertos administrandonos para evitar, en la medida de lo posible, no pasar necesidades.

Con el surgimiento de la modalidad virtual en el sector educativo, en todos sus niveles, en algunos casos nos hemos encontrado, repentinamente con la necesidad de adquirir una computadora.

Y aquí surje otro problema y por ende una decisión que tomar.  Me ahorro dinero comprando una de segunda mano, para maximizar el rendimiento del mismo, o me compro una nueva de un precio algo similar.

Esta pregunta es tan difícil de responder como la de decidir si conviene más comparse un auto nuevo o uno de segunda.

Obviamente quien ha tenido buenas experiencias con las computadoras de segunda, tendrá el entusiasmo y argumentos suficientes para convencer a otros a que tomen la misma decisión.

En papel, sin meterse en muchos detalles, una computadora de segunda, con buen aspecto y procesador capacidad de procesamiento desente puede adquirirse a partir de los 250, 350 y hasta los 450, dependiendo del tipo de procesador que en ellas se incluya.

A estos precios, si lo comparmos con las nuevas, pues con supuestas especificaciones similares los precios pueden estar, mínimo entre 200 a 250 dólares más caros que su contraparte de segunda dependiendo del tipo de porcesador con los que se cuente.

Entonces, a simple vista es mejor comprarse una de segunda, porque dependiendo del uso que se le de, una computadora es una computadora, y más rápida no necesariamente hará que todo termine más rápido.

Y esta forma de pensar es una verdad a medias por lo que hay que evitar dejarse guiar por información parcial de sólo alguno de los componentes, pues por ejemplo, un procesador Intel i5 de hace unos 7 años atrás puede llegar a ser más lento que un Intel i3 de último modelo, 2020. 

Mencioné los procesadores de Intel pues han sido constantes en nombrar a sus procesadores a diferencia de AMD, quienes cambian el nombre con cada nueva tecnología con los que los desarrollan.  En ese sentido, es mucho más fácil saber si los procesadores no son tan nuevos, basados en los nombres que le han puesto a través de los años.

Hay que evitar cometer este error pues, intuitivamente se puede pensar que. por la nomenclatura, el del número superior es mejor que el del número inferior, sin tomar en cuenta lo que ha sucedido a través del tiempo.  Y es que regularmente,a veces se ignora que los componentes evolucionan o mejoran cada nueva generación o cada nuevo modelos que salen al mercado y mejora a mejora hacen que lo que se ve inferior en la actualidad, es superior a lo que había años atrás.  

Esta superioridad no se mide sólo por la nomenclatura, sino por la capacidad de procesamiento, consumo de energía, generación de calor, por mencionar algunas.  En el caso de las computadoras portátiles, esto es muy importante, pues en su conjunto, este tipo de mejoras permiten lograr tener mayot autonomía y más comodidad.

Una computadora es un sistema que está formado por distintos componentes, de distintos fabricantes con funciones especializadas y que trabajan en forma armónica. 

El principal temor que se tiene con un equipo de segunda es la incertidumbre de saber que si al apagarlo volverá a encder cuando nuevamente así se requiera.   En una computadora de segunda mano, eso puede suceder en cualquier momento.   

A diferencia a lo que sucede con los autos, no tenemos como medir o anticipar, cuando será la última vez que encienda, o que algo se pueda dañar o que deje de trabajar.  No podemos hacerle mantenimiento preventivo con el objetivo de aumentarle la vida útil.  Podemos hacerlo para que no se nos estropee, pero no para mantenerla más tiempo con vida.

Supongamos que el hardware sale bueno y resiste a través de los años.  Esto no quiere decir que estemos libres de problemas.  El sistema operativo y las partes que lo componen es nuestra siguiente preocupación.  Debemos recordar que el sistema operativo es el que se encarga de administrar los recursos y permite que los distinos componentes puedan funcionar correctamente.  El sistema es un ente dinámico que se encuentra en constante evolución.

Para que la computadora trabaje correctamene, el sistema operativo debe poder reconocer y controlar todos los componentes que forman parte de ella.  Sin embargo el software que administra estos componentes no siempre depende de quien mantiene el sistema operativo, sino mas bien de quien los fabrica y en muchas ocasiones, dejan de actualizarlos o establecen rquisitos que impiden que se actualicen y con ello hacen que la computadora llegue al verdadero fin de la vida útil del equipo, para algunas cosas, definitivamente.

Entonces, sin pensar en daños, la vida útil de la computadora está dada por la capacidad de seguir manteniendose actualizada a través de las distintas versiones del sistema operativo que surjan en el tiempo.

Así es que después de tomar en cuenta lo que se ha mencionado ¿cuál es el consejo?.  Con prespupuesto limitado no se puede exigir mucho.  Si se adquiere una computadora de segunda, hay que hacerse la idea que la longevidad no es algo que se espere de ellas.  Lo que se debe hacer es verificar el tipo de procesador y el modelo de la computadora y luego investigar o buscar información sobre el mismo.  Esto nos permitirá conocer la edad aproximada del equipo para tomar una mejor decisión.

Otro consejo es tratar de encontrar computadoras en las que sea su fecha de lanzamiento al mercado sea lo más cercano a nuestra fecha actual, pues en principio nos puede dar una mayor  esperanza de tiempo de vida útil.  

Para los estándares actuales, lo ideal es que se decidan por equipos con salida HDMI, cámara de video integrada, minimo 8GB de RAM y disco duro de estádo sólido (SSD).  Si no lo tiene, es la mejor inversión que puede hacer en ella.

A veces tenemos que decidirnos entre el mejor de lo que podemos y no necesariamente en lo que queremos.


miércoles, 5 de agosto de 2020

ARM la verdadera amenaza que enfrenta Intel

IBM es una compañía a la cual los fabricantes de computadoras personales, PC, le deben mucho.  Esto es debido a que, por falta de visión o quizas de malicia, no blindaron con patentes su creación, la PC.

A pesar de ser un gigante informático, en aquel entonces, fueron de los últimos en entrar a un mercado que tenía muchos participantes diferentes, cada uno con tecnologías propias e incompatibles entre ellos.

Una de las compañías que desde el inició salió ganando en el mundo de las PCs fue Intel,  fabricante de procesadores (CPU) y otros componentes electrónicos adicionales.

Cuando surgieron los clones de las PCs, no solamente copiaron la parte del hardware de IBM, sino que también se aseguraron de que pudiesen utilizar el software que las hacían funcionar y les daba utilidad a las computadoras personales.

Durante muchos lustros la conocida relación Wintel entre  Microsoft e Intel se beneficiaron de una alianza comercial que les permitió dominar el mercado de las computadoras personales. 

Se preguntarán, que hay de AMD.  Esta pequeña compañía fabricante de procesadores, a pesar del tamaño de Intel, ha logrado subsistir a través de los años.  Sin embargo, las pocas veces que creaba productos ligeramente superiores a los de Intel, esta utilizaba su poder y tamaño para controlar el mercado.

Con la decisión de Apple de no utilizar más procesadores de Motorola y cambiar su plataforma hacia lo que ofrecía Intel, esta compañía logró el dominio casi total del mercado de las computadoras personales.  A pesar que las ventas de Apple en cuanto a computadoras personales nunca han sido de un gran volúmen, desde el punto de vista mediático fue una muy buena publicidad.  Un buen golpe mediático.

A partir de la crisis económica del año 2007, las cosas para Intel no han sido fáciles.  La caída, año tras año de los volúmenes de ventas en el mercado de las computadoras personales, representó un duro golpe a su poder.  Si, todavía domina el mercado, pero no gana tanto como le gustaría.  

Con el fin de hacerle frente a la crisis, moderó la inversión que realizaba en investigación y desarrollo.  Sus productos empezaron a ser mejoras o pequeñas evoluciones en comparación con los modelos anteriores.  Esta estrategía, desde el punto de vista comercial era buena, pero a largo plazo la puso en una situación de ventaja competitiva difícil de sostener.

Intel intentó competir en el mundo de los dispositivos móviles.  No logró convencer a muchos fabricantes para que incorporaran sus productos en sus modelos pero no llegaron a convencer o mostrar su potencial tecnológico.  Terminó retirandose con mucha pena y pocos recuerdos agradables.  El mundo móvil no era para ellos.  Este era un mundo dominado por procesadores que utilizaban arquitectura ARM.

La tranquilidad no llegaría a Intel con su salida del mundo móvil, pues AMD utilizando su ingenio y tomando en cuenta los límites de los recursos disponibles, sacaron al mercado un producto nuevo que cambió su participación en el mercado de los procesadores.  Denominados bajo el nombre comercial Ryzen, sus procesadores cambiaron el estilo de posicionamiento de sus productos y en lugar de crear procesadores que no se podían comparar directamente con los de Intel, decidieron alinearlos para competir directamente con las diferentes familias de Intel. 

Estos nuevos productos no han hecho que Intel pierda mucha cuota de mercado, sin embargo, desde el punto de vista de reputación, como compañía de tecnología vanguardista, ha quedado en una posición algo incómoda, pues la percepción general es que se han quedado atrás, han perdido el liderazgo en cuanto a desarrolo tencnológico.

Para agregar más a los problemas que enfrenta, un buen día, Apple anuncia que oficialmente, estaría abandonando totalmente la arquitectura Intel para todas sus computadoras.  Empezarían a utilizar procesadores diseñados y fabricados por ellos mismos basados en arquitectura ARM.  Así como en el pasado, el que Apple saltara hacia las toldas de Intel les ayudó, desde el punto de vista de percepción, esta noticia acrecenta más la idea que su liderazgo es algo del pasado.  Sobre todo debido a que entre las razones que posiblemente explican esta decisión de Apple, está en las constantes faltas de Intel de cumplir con solicitudes especiales de rendimiento y consumo de energía.

Se preguntarán entonces, ¿Dónde está el peligro para Intel?.  En este caso, el peligro está en que Apple tiene la reputación de ser exigente con las características y rendimiento de sus productos.  La falta de respuestas de Intel obligó a dar este saldo. Tan rápido que para el 2022, Apple no producirá ninguna computadora con procesador Intel.  Según lo que han anunciado.

Esta decisión puede ser imitada por otros fabricantes.  Por ejemplo, la arquitectura de las Chromebook pueden abandonar los procesadores de bajo rendimiento de Intel y utilizar los procesadores con arquitectura ARM que suelen ser más económicos de producir y son mucho más eficientes en cuanto al consumo de energía, requisito que es muy importante para los fabricantes de portátiles.

Por su parte, Microsoft ha mostrado versiones del sistema operativo Windows en equipos con arquitectura ARM.  Una clara señal que Microsoft está buscando oportunidades de incursionar en otros mercados en donde no se tomen en cuenta a los procesadores Intel.

En fin, Intel ha estado peleando muchos frentes y no necesariamente saliendo bien librado de ellos.  Todavía  domina el mundo de los procesadores para computadoras personales, más que nada por sus relaciones comerciales.  Por su parte, ahora mas que nunca AMD está demostrando que los procesadores Intel además de caros ya no ofrecen las ventajas que antes eran palpables. 

Los procesadores de Apple basados en arquitectura ARM, sólo podrán exisitir y ver la luz en equipos de Apple.  Eso puede ser un alivio para Intel, pero el éxito o no de los mismos, representa una seria amenaza.  Estamos por ver la capacidad de la tecnología ARM y lo que su desarrollo permite hacer en la actualidad y así anticipar lo que podrá suceder en el futuro.   

Es muy posible que otros fabricantes de procesadores para dispoitivos móviles, vean una oportunidad y quieran intentar sacarle provecho, sobre todo aquellos que les cuesta competir en un mercado que tiene claramente definidos quienes son los dominantes.

Por lo pronto, nos toca esperar a que salgan las primeras computadoras de Apple con procesador ARM para analizarlas y así poder establecer con mayor claridad, si realmente esta arquitectura representa un serio peligro para Intel.

miércoles, 29 de julio de 2020

Zoom y Whatsapp, lo que tienen en común

Estudiar historia es interesante.  Te permite entender mejor los escenarios y las formas como se dieron los acontecimientos.  Estudiar la historia dde los productos tecnológicos es igual de interesante, sobre todo cuando al repasarla descubres detalles que quizás se habían pasado por alto.

Desde el punto de vista de mercado, Zoom y Whatsapp no compiten directamente entre si a pesar que poseen algunas funcionalidades que pueden ser consideradas como similares.  Estas dos compañías  surgieron en momentos diferentes en donde se encontraron con competidores claramente bien reconocidos.

Cuenta la historia que los creadores de ambos productos deseaban solucionar problemas que habían experimentado.  En el caso de Zoom la historia es mas interesante pues, no solo se ha convertido en un producto de éxito durante su corto período de vida, sino porque el concepto de este producto fue rechazado, cuando su creador trabajaba para el gigante tecnológico CISCO.

En el caso de Whatsapp, el objetivo era crear un producto que pudiese ser utilizado en cualquier teléfono móvil y sobre todo fuese sencillo.  Algo que en aquel entonces era dificil de encontrar.  Este fue el secreto del éxito, a pesar que nunca se ha caracterizado por ser una plataforma innovadora.

Por su parte, Zoom se caracteriza por la facilidad de uso, por ejemplo para poder participar de una reunión puedes utilizar cualquier cuenta de correo electrónico, personal o corportativa, además la opción de uso gratuito ofrecía tantos beneficios que era dificil no sentirse tentado a utilizarla.  En cambio su competencia, a pesar que contaba con productos gratuitos, todas te obligan a crear una cuenta en la plataforma de la que es dueña.  Prueba de ellos son los productos que se encuentran en el portafolio de Microsoft, Google, Facebook por mencionar algunas.

La popularidad de Zoom ha sobrepasado las barreras que a veces se presentan entre el uso personal y el uso profesional del mundo corporativo.  Su éxito ha obligado a la competencia a implementar cambios en la estrategia de comercialización y trascender del mundo empresarial hacia el uso privado.

Inclusive Whatsapp también ha entrado en el mundo de las video conversaciones con multiples asistentes simultáneos, pues ha introducido cambios significativos que permiten llevar a cabo reuniones con una cantidad plural de personas, jamás antes pensada, eso sí, manteniendo la sencillez de uso que ha sido siempre su característica desde el principio.

La pandemia del 2020 ha causado grandes trastornos en nuestras vidas y al mismo tiempo ha propiciado cambios de los que ahora nos beneficiamos y que han ayudado a sobrellevar las restricciones que enfrentamos, contribuyendo hasta cierto punto, a mantenernos seguros.

Si bien los productos de los que hemos hablado ya existían mucho antes que nos pudiesemos imaginar que viviríamos momentos, en los que la recomendación de distanciarnos socialmente es una acción preventiva para preservar la vida, la evolución de los mismos y los cambios introducidos por la competencia, han sido más rápidos que los cambios introducidos en periodos anteriores.

Lo que se espera para el futuro, es algo similar a lo que vimos en el pasado.  Siendo más directos, me refiero al destino vivido por Whatsapp.  Eventualmente Zoom será adquirido por alguna de los gigantes tecnológicos, sobre todo si sigue creciendo como lo ha estado haciendo.  A menos que esta compañía aproveche su buen momento y adquiera o se fusione con otros productos que le permitan diversificarse y le permitan competir y mantenerse independientes.

Whatsapp y Zoom tuvieron orígenes parecidos.  La creación de un producto que permitiera facilitar el mantener una especie de contacto directo con las personas que nos interesan, de una forma fácil, robusta y al menor costo posible.

No es una locura total y también está la posibilidad que  Zoom crezca como plataforma, hacia el mundo de la mensajería instantánea.  Tiene todos los ingresientes para lograrlo.

Veremos que nos depara el futuro.

lunes, 27 de julio de 2020

Apple abandona a Intel

Si hablamos de analogía con los sreres humanos, Apple representaría a esas personas en las que nada les preocupa y se arriegan a todo y aún cuando las cosas no le estén saliendo bien, siempre tienen una sonrisa en el rostro y nunca pierden el buen humor y el espítiru de aventura.  Tal y como lo decía uno de sus slogan de ya hace bastante años atrás, es una empresa que se atreve a ser diferente.

En su historial, esta compañía ha sido innovadora, pero no tanto de las que crean cosas totalmente nuevas, sino mas bien, han tenido la habilidad de ver qué es lo que ya existe, rediseñarlo y luego mostrárselo al público como si fuese realmente nuevo.  Y esto, en parte es lo que la hace diferente a las demás.

La otra característica que tiene, es que no teme a realizar cambios radicales si consideran que, para sus intereses a largo plazo, es el mejor camino a seguir.  Por lo que hemos vivido son cambios bien orquestrados que no le causan tantos dolores de cabeza como el otro sistema operativo conocidos por todos.

Apple cambió, por allá por el año 2001 de plataforma de sistema operativo, del Mac OS 9 a Maco OS X, y no fue un cambio meramente comercial, era totalmente distinto.  Posteriormente, en el año 2005 cambió de plataforma de hardware, de Power PC a Intel.  Quizás el sistema operativo se veía distinto, pero realmente era algo completamente diferente.  Y ahora, en el 2020, Apple nuevamente decide que cambiará su plataforma de hardware, por ende, el sistema operativo cambiará, pues dejará de ser Intel y en el futuro estará basado en ARM.

Las comparaciones son odiosas, pero algo así debió haber hecho Microsoft cuando lanzó Windows 10.  En lugar de preocuparse por la compatibilidad hacia atrás, debió haber marcado la línea de lo que sería el futuro.  Quizás así, sería un sistema operativo más eficiente y seguro.  Pero mejor no nos desviemos.

EL plan anunciado por Apple es muy ambicioso.  En el año 2022 todos sus productos utilizarán procesadores Apple Silicon, que es el nombre comercial de sus procesadores basados en ARM.

Y sólo para que lo tengan como referencia, aunque de prente ya lo saben, estos procesadores son similares, en gran medida, a los procesadores que actualmente poseen las iPad Pro.

En fin, la transición ya está dada y en el próximo año y medio estaremos viendo muchos anuncios, especulaciones, comparaciones, etc., de cada producto informático nuevo que estarán colocando a la venta.

Quizás se pregunten, ¿cuál es la gran importancia que hay en este cambio de plataforma de hardware?  El control que Apple logra.  Por primera vez tendrá, en todos sus productos, control total de la fabricación del producto.  Esto puede permitir que sus computadoras trabajen mejor y sean mucho más eficientes que las actuales.  Pues ahora Apple controla el diseño del hardware, y no me refiero a lo estético, y ya es dueño del software.

Y no sólo esto, en principio y teorícamente, tendremos un sistema operativo que podrá ejecutar aplicaciones hechas para iOS, o sea iPhones y para iPadOS, sin tener que recompilar ni una línea de código.

De pronto, un sistema operativo nuevo, con una cantidad enorme de software a la disposición.  Se acuerdan de las estrategias del iPhone original y del lanzamiento del iPad.  Se están asgurando aceptación imediata.

A pesar de esto, no esperen mucha innovación, pues no es el estilo de ellos.  Se espera que se pueda notar un funcionamiento superior a los productos que actualmente comercializan.

En fin, veremos muchas más noticias de Apple y no serán exclusivamente de los iPhone.  La capacidad del personal de desarrollo, de los programadores, directores de proyectos, de los Ingenieros de Software, etc., es de muy alto nivel, pues lo hemos visto en la historia, son muy pocas compañias que se atereven a hacer un cambio radical en donde se marca una línea para ver el pasado y de allí partir hacia el futuro.

Microsoft en las computadoras personales, a pesar de dominar claramente el mercado no se ha atrevido y lo mismo ha sucedido con Goole y Android.

Nos toca esperar a ver que nos mostrarán y sobre todo cuánto podrá costarnos. 

domingo, 26 de mayo de 2019

El caso Huawei

¿Por qué Estados Unidos ha castigado a Huawei tan severamente?

Es dificil contestar esta pregunta en una sola frase, de hecho hay toda una historia detrás en la que hay muchas ramas del saber que podrían tomar su actuar como ejemplo, tanto de lo que se debe hacer, así como lo que no se debe hacer en los negocios.

Huawei es un gigante tecnologico que se desenvuelve en el mundo de las telecomunicaciones.  Es una compañía que tiene más de 20 años de existencia.

En sus inicios, empezaron trabajando con equipos y centrales teléfonicas, distribuyendo y representando para el mercado chino y después se convirtieron en productores.  Algunos dicen que utilizaron tecnología de las compañías que ellos representaban, para desarrollar productos propios, en otras palabras, copiaron lo que habían creado otros para aplicarlos a sus propios productos como creación legítima de ellos.

No hay que esforzarse mucho e información sobre acusaciones y litigios por violación a las normas de derechos de autor que ha infringido Huawei, abundan.

China es un país comunista que abandonó las ideas económicas típicas del comunismo y acepto utilizar algunas del capitalismo.  En terminos generales, su economía interna se rige bajo las leyes de la oferta y la demanda, hasta cierto punto, pero el mercado como tal, está bien protegido.  No es fácil para las compañías occidentales exportar a China.  Ellos prefieren que produzcas en el país, vendas a lo interno y exportes lo que desees.

Para China, como casi para cualquier potencia mundial, las telecomunicaciones son de vital importancia y en el caso chino, la actividad económica en este mercado es exclusiva para ser explotadas por empresas 100% chinas, en otras palabras, las compañías que son competencia de Hwauei, no pueden vender productos en China, sin embargo, Huawei, aprovecha el libre mercado y hace dinero, mucho dinero participando de sus beneficios.

China, abiertamente es reconocida por sus actividades de espionaje, sobre todo del espionaje industrial.  Esa actividad nada ética cuyo propósito es robar lo que otros desarrollan para copiarlo y sacarle provecho económico, a costa del tiempo y dinero invertido por los demás.

Esto, a través del tiempo, le ha dado una ventaja notable, pues entre otras cosas sus productos suelen ser mucho más económicos que los de la competencia, en ocasiones hasta un 30% menos.

Como comprenderán, a medida que los costos de implementación suben, ese posible 30% empieza cada vez más significativo.

Otra posible razón es la relacionada con la seguridad nacional.  Y es que el temor que hay entre algunas potencias capitalistas, es que los equipos y softwares provenientes de esta compañía, incluyan algunas facilidades que le permitan al gobierno chino llevar a cabo tareas de espionaje.

Hwauei a negado las acusacines, sin embargo, una legislación reciente, obliga a los ciudadanos y empresas chinas a colaborar en tareas de espionaje, cuando el gobierno lo solicite.

Ahora bien, este tipo de legislaciones no es exclusiva de China, otros países, algo más sutilmente también, de una forma u otra, pueden obligar a ciudadanos y compañías a cooperar.

Es posible que Huawei, ahora que es un gigante tecnológico, que realiza inversiones cuantiosas en investigación y desarrollo, haya dejado atrás las practicas de copiado, sin embargo sus antecedentes y mal comportamiento, de acuerdo a las reglas internacionales, le están jugando una mala pasada, pues es una de las razones que el Gobierno de los Estados Unidos está utilizando como justifiacación para prohibir que las empresas de este país hagan negocios con Huawei.

Y es que desde que se emitió el decreto, no sólo tienen problemas de software, sino que el suministro de hardware también se le está volviendo un serio problema.

Por el momento, tiene menos de noventa días para evitar un problema mayor, aunque ellos aseguran tener en stock suministros suficientes para lograr este bloqueo, hasta por un año a ritmos de producción y ventas actuales.

El problema está en que el castigo es directo, sin embargo se ha condicionado el levantamiento del mismo, a las negociaciones comerciales que se están dando entre Estados Unidos y China, las cuales no avanzan nada bien.

Todavía la situación está confusa y por el momento no está claro como todo resultará.

Amanecerá y veremos. 



viernes, 19 de enero de 2018

Clasificación de los lenguajes de programación

Hace un tiempo atrás, podíamos definir a los lenguajes de programación como mecanismos creados para que el hombre se pudiese comunicar con las computadoras.  Con la evolución de la tecnología y la diversificación de los usos que se les dan a nuevos dispositivos electrónicos, ya no podemos definir a los lenguajes de programación de esta manera.

Entonces actualmente podemos definir a los lenguajes de programación como aquellos que nos permiten interactuar con equipos electrónicos, ya sean estos computadoras, dispositivos móviles, sensores digitales, etc.

Lograr una única clasificación para los lenguajes de programación, se ha convertido en un reto, pues en la actualidad hay muchos factores que pueden ser tomados en cuenta para lograr dicha clasificación.

A continuación, veremos distintos tipos de clasificación de acuerdo a diversos factores.

De acuerdo a su nivel de abstracción, tenemos:
1. Lenguaje Máquina
2. Lenguaje de Bajo Nivel
3. Lenguaje de Alto Nivel

Si tomamos en cuenta la forma como son convertidos a lenguaje máquina, tenemos:
1. Lenguajes compilados
2. Lenguajes interpretados

Los lenguajes de programación también pueden ser clasificados tomando en cuenta para qué han sido creados:
1. Lenguajes para uso general
2. Lenguajes para uso específico

Desde el punto de vista cronológico, durante algún tiempo, los lenguajes de programación estuvieron ligados a las generaciones de desarrollo de las computadoras.  Tomando en cuenta esto, encontramos que podemos contabilizar hasta 5 generaciones de lenguajes de programación.

Por último, tenemos una clasificación que es mucho más abarcadora y que toma en cuenta las características y el modo de funcionamiento como fueron creados los lenguajes de programación.  A esto lo conocemos como clasificación de acuerdo a sus paradigmas de programación.

A continuación, se listan los paradigmas más conocidos, comunes o que poseen un mayor uso o alcance:
1. Programación Imperativa
2. Programación Declarativo
3. Programación Orientado a Objetos
4. Programación Funcional
5. Programación Lógica
6. Programación Dirigida por Eventos

jueves, 18 de enero de 2018

La importancia de conocer sobre los lenguajes de programación

Los lenguajes de programación han sido creados para lograr que las computadoras en general y otros dispositivos electrónicos en particular, ejecuten las operaciones deseadas para lo cual han sido creados.

En una forma sencilla, podemos definir a los lenguajes de programación, como un conjunto de instrucciones que son organizadas de manera tal que sirven para obtener algún tipo de resultado.

En estos tiempos en donde encontramos automatización por todos lados, estos resultados pueden ser desde el desarrollo de operaciones matemáticas, consultas a bases de datos, así como mover el brazo de un robot o monitorear o procesar señales.

Existe un número plural de lenguajes de programación, cada uno con sus propias características y particularidades.  Es común encontrarse en situaciones en donde más de un lenguaje puede ser empleado, por ejemplo, para ser aplicado en el control o la solución de algún problema o situación.

Aprender de los distintos tipos de lenguaje de programación tiene una gran ventaja y esta es que nos permite conocer mejor la tecnología de manera tal que podemos identificar las posibilidades que dicha tecnología nos ofrece.

El conocer las características de los lenguajes de programación permite crear códigos altamente eficientes en cuanto al uso del procesador y al tiempo de codificación pues se comenten menos errores durante el proceso de creación de la lógica de programación.

El poder identificar las fortalezas y debilidades de cada lenguaje de programación, permite poder seleccionar aquel que se adecue de mejor manera al proyecto que estamos desarrollando.  Esto permitiría ahorrar costos de desarrollo en una etapa actual y de mejoras o mantenimiento durante una etapa posterior.

Actualmente encontramos lenguajes de programación utilizados para el desarrollo de aplicaciones que serán utilizadas en diversos ambientes de los distintos sistemas operativos existentes, así mismo tenemos lenguajes de programación para el desarrollo de aplicaciones que sirven como complementos a otros softwares, como por ejemplo para ser utilizados junto con los navegadores de Internet.

En los últimos años, el gran crecimiento que ha tenido el desarrollo de la telefonía móvil ha permitido el surgimiento de nuevos sistemas operativos y nuevos lenguajes de programación diseñados para crear aplicaciones que pudiesen ser ejecutados en los mismos.

No solamente encontramos lenguajes de programación creados para el desarrollo de aplicaciones para ser ejecutadas en computadoras personales o en dispositivos móviles.  También encontramos lenguajes de programación utilizados para la creación de aplicaciones en equipos industriales como los robots en las líneas de ensamblaje o los utilizados en las bodegas de almacenamiento.  Inclusive, cada vez más vemos como la informática, en sus distintas formas, empieza a tomar mayor protagonismo en el control del funcionamiento de vehículos, camiones, aviones y barcos.

El Internet de las Cosas (IoT), es un área nueva en donde el desarrollo tecnológico digital ha permitido el desarrollo de dispositivos de uso especializado.  Al igual que todas las demás aplicaciones que ya conocemos también utilizamos lenguajes de programación para poder darle funcionalidad a los mismos.

Desde la creación de la primera computadora han existido los lenguajes de programación.  Estos han ido evolucionando con el tiempo.  Algunos han sido utilizados para crear otros sistemas operativos y otros lenguajes de programación con mayores capacidades que superan las limitaciones de los ya existentes.

A través del tiempo hemos visto como lenguajes de programación muy populares y de uso extendido durante cierto período de tiempo, en la actualidad han quedado en el recuerdo, se han convertido en parte de la historia de la evolución tecnológica.  Los lenguajes de programación de uso general utilizados años atrás han dado paso a muchos lenguajes de programación de uso especializado, por llamarlo de alguna manera, que otorgan más poder y mejor control a las aplicaciones creadas por los mismos.

domingo, 24 de diciembre de 2017

Mi deseo de Navidad - 2017

Hoy celebramos Noche Buena...

Y es un buen momento para detenernos y a solas meditar sobre lo que somos y lo que hacemos...

Realmente no se requiere de hacer cosas especiales, sólo estar en paz y armonía...

Nada es perfecto en esta vida y siempre habrá algo que nos haga falta.

Así es que en lugar de pensar mucho en lo que se podría considerar negativo, prefiero hacer el ejercicio y buscar para quedarme con lo positivo...

Me quedo con las personas que me quieren, aún cuando no siempre puedan estar conmigo, me quedo con la buena salud que he tenido y que me haya permitido estar bien para estas fiestas...

Me parece que de todas las cosas que no podemos controlar, gozar de buena salud es la más importante...

Por ende imagino que ya sabes que mi único deseo para esta Navidad es que gozes de buena salud, que las personas que te quieren te sigan queriendo bien y que las que conozcas también lo hagan... Que disfrutes de todo el amor que la vida te puede otorgar y que la felicidad siempre esté presente en tu vida...

Que los momentos no tan agradables sean superados y que siempre encuentres a una persona que pueda extender su mano para apoyarte cuando así lo necesites...

Feliz Navidad...

martes, 29 de noviembre de 2016

Cuidado, que ni los hackers se salvan…

Recientemente, exactamente este fin de semana que pasó, nos encontramos con una noticia proveniente de la ciudad de San Francisco, California, Estados Unidos.

La noticia informaba que el servicio municipal de transporte público había sido hackeado.  Específicamente, el sistema que controla el cobro de las tarifas, información, etc., estaba contaminado con un virus o malware de tipo Ramsomware.

Los Ramsomware secuestran toda tu información, encriptándola de manera que no puedes tener acceso a tus archivos como lo solías hacer.  Al igual que sucede con los secuestros de personas, el autor del malware suele enviar o incluir un mensaje en el que pide un rescate por tu información y brinda detalles de la forma como se ha de realizar el pago y cualquier otra información adicional.

Cuando uno piensa en un hacker, la primera idea que se le viene a la mente es la de una persona, que hará algo con algo muy mío, como mi información, que me va a perjudicar de alguna manera. 
También pensamos en aquella persona que posee un conocimiento de computadoras tan elevado que es mejor no meterse con él.

Es como si fuese una persona superdotada, con mucho conocimiento sobre como vulnerar tu privacidad y que prefieres no encontrarte en su camino porque no tienes idea como defenderte.

Pues al parecer este hacker, que secuestró la información que maneja el sistema de transporte en San Francisco, demostró no ser tan superdotado después de todo.  Esto es porque pasó por alto ciertas reglas básicas que se deben seguir en el mundo de la informática, y sobre todo si te dedicas a hacer el mal.

Utilizó, en la cuenta de correo electrónico de referencia en el mensaje de su Ramsonware, un password que pudo ser fácilmente adivinado, y lo peor, utilizó una serie de cuentas de correo electrónico para ocultar su identidad, en la que los passwords fueron exactamente los mismos.  Como resultado de su error fatal, el hacker fue hackeado.

Este caso de la vida real nos brinda una enseñanza, sobre los consejos que debemos seguir aunque lo encontremos engorroso.  Los expertos siempre lo dicen, una de las mejores formas que tenemos para protegernos de personas mal intencionadas, es el utilizar passwords o contraseñas difíciles de adivinar.

No es que se tenga que buscar y utilizar una combinación de letras y números que requieran de un algoritmo de alta seguridad, definitivamente que ayudaría, pero basta con utilizar combinaciones de letras y números que no se asocien a gustos, familiares o información personal y cuyo largo sea superior a los ocho caracteres.

Pero este escrito no es para aconsejar sobre el tipo de contraseña que se debe utilizar, es más bien para compartir esta anécdota en la que si a un hacker le pasa, a cualquiera de nosotros también nos puede suceder.


Para terminar, si lo desean, en este caso, pueden reírse de lo que le sucedió al hacker, pero con la condición que aprendan la lección.

Más detalles de esta historia lo podrán encontrar en el siguiente enlace: San Francisco Rail System Hacker Hacked

Se viene Bluetooth 5.0

Recordando la historia, por allá por el año 2,000, empezaron a aparecer unos dispositivos que incluían una nueva tecnología, que permitía conectar equipos, en forma fácil y sin la necesidad de instalar softwares o realizar configuraciones complicadas.

En aquel entonces, esta nueva tecnología la podíamos utilizar para intercambiar archivos en forma inalámbrica siempre y cuando los dispositivos no se encontrarán a distancias superiores a las de 10 metros y por lo general a velocidades que no superaban 1 Mbps.  La conveniencia era más importante que la velocidad a la cual se transfería la información, la cual para los estándares de aquella época, no estaba nada mal.  Inclusive se apreciaba como algo rápido.

Esta maravillosa tecnología la conocemos con el nombre de Bluetooth y ha evolucionado desde aquella increíble capacidad de transmisión de 1 Mbps, pasando por 3 Mbps de la versión 2.x, hasta alcanzar los casi 24 Mbps de la cual disfrutamos actualmente y que es una herencia de las versiones Bluetooth 3.x.

La versión actual de la que disfrutamos una velocidad de transferencia de 24 Mbps, es la 4.2, y pronto será parte del pasado, cuando salga a la luz pública la versión Bluetooth 5.0.

Debido a que en el mundo tecnológico está en constante cambio, las mejoras de las que se podrán disfrutar con la nueva versión son realmente de sueño.  Prácticamente desaparecen muchas de las restricciones con las que hemos vivido actualmente.  De hecho, nos lleva a escenarios, jamás antes pensados.

Para tener una idea del tipo de mejoras de las que estamos hablando, podemos mencionar, dos de las características de las que más se hablará.  Nos referimos a la distancia de cobertura y a la velocidad de transmisión.

Imagínense tener un dispositivo Bluetooth, que posea un alcance de hasta 400 mts sin obstáculos en el campo de transmisión, o dicho de otra manera, en línea recta, hasta donde el ojo mira.  Pero como en nuestro mundo real, a menos que se esté en el campo, lo que nos sobra son obstáculos, el alcance puede verse algo reducido hasta unos posibles 120 mts de distancia.

La segunda característica de la cual se hablará con frecuencia se refiere a la capacidad de transmisión que, según el sitio de Bluetooth Special Interest Group (SIG), fácilmente duplica lo que hasta ahora conocemos.

Cuando se hizo el anuncio, en junio de este año, se hablaba que esta nueva versión estaría disponible para finales de este año o inicios del 2017.  Sin importar, cuando la tendremos entre nosotros, imagínense las posibilidades de conectividad con cualquier equipo.  Muchos más artefactos, accesorios, equipos y dispositivos se podrán interconectar e interactuar unos con otros sin las limitaciones que conocemos en la actualidad.


El desarrollo del Internet de las cosas (IoT) será el prinicipal beneficiado, pues disfrutará de un mayor impulso ya que se logrará que muchos más dispositivos logren conectividad aprovechando la mayor capacidad y bondades en comparación con lo que actualmente conocemos.  

Por supuesto, los teléfonos inteligentes aumentarán su importancia para nosotros pues podremos interactuar, controlar, manipular y hacer muchas más cosas de las que hemos disfrutado hasta el momento.

Si pensamos que ya vivimos en un mundo conectado, en un futuro no muy lejano, descubriremos que hoy, en el año 2016, a duras penas estábamos empezando a disfrutar lo que es estar realmente conectados.

Amanecerá y veremos...

miércoles, 6 de abril de 2016

The Panama Papers

Panamá iniciaba el mes de abril con un verano riguroso, con altas temperaturas y problemas de suministro de agua en varios poblados del país.  Todo esto gracias al fenómeno del Niño, el cual ha sido el más fuerte que se ha presentado hasta el momento en Panamá.

Panamá es un pequeño país ubicado en Centroamérica y que hasta el momento principalmente era conocido por el Canal de Panamá, por algunos de sus deportistas profesionales y otros artistas que triunfan fuera del país.

El domingo 3 de abril, todo cambió, cuando el nombre Panamá empezó a ser noticia en todo el mundo y casi simultáneamente.  

Se hizo público que, de una firma de abogados dedicada principalmente a la creación de sociedades anónimas tipo offshore, se habían filtrado una gran cantidad de documentos secretos que revelaban información sobre empresas, dueños, bancos, etc.  Aproximadamente alrededor de once millones de documentos los cuales corresponde a cerca de cuarenta años de operaciones.

De la información hecha pública, se identifican como beneficiarios o dueños de estas sociedades anónimas a políticos, deportistas, artistas, prófugos de la justicia de diferentes países y alguna que otra persona de prácticamente todos los Continentes de nuestro planeta

Las consecuencias de esta filtración de información a duras penas se están empezando a presentar y no se puede anticipar lo que sucederá o si, como resultado de este evento, sirva para cambiar algo.

Desde el punto de vista ético, moral, legal, profesional y comercial, cada uno tendrá su propia opinión, a favor, en contra o ninguna de las anteriores.

Desde el punto de vista de las Tecnologías de Información, que muy poco se ha mencionado, y específicamente de la Seguridad de la Información, este evento pone en muy mala posición a la firma de abogados Mossak Fonseca.

Los responsables del área de Tecnología fracasaron horriblemente en cuanto a la preservación segura de la información de la firma, que debido al tipo de negocio que desempeña, la discreción y el secreto es de suma importancia para sus clientes.

Algunas publicaciones dan a entender que la información fue suministrada por alguien que laboró en la firma de abogados.  También se ha mencionado que su sitio web estaba vulnerable a hackeos y realmente desactualizado.  Se dice que el correo electrónico no poseía ningún tipo de encriptación y que el servidor del mismo se encontraba vulnerable debido a la falta de actualización.

El panorama tecnológico era realmente caótico.  Obviamente no contaban con medidas de seguridad para evitar ataques externos o actividades no autorizadas desde adentro de la organización.  Es como si no tuviesen a nadie responsable con conocimientos de las actuales normas básicas de seguridad informática, o las personas encargadas careciesen de la preparación adecuada, o peor aún que fuesen realmente incompetentes.

En total se extrajeron cerca de 2.6 Terabytes de información.  Una cantidad como esta de información requiere de largos perídos de tiempo si la misma hubiese sido transferida desde los servidores de la empresa.  Así mismo, se requeriría invertir algo de tiempo para poder copiarlos, por ejemplo, en pastillas de memoria USB e inclusive utilizando discos duros portátiles.

El hecho es que en una compañía como esa, hay medidas de seguridad rigurosas que debieron estar implantadas, que no son novedad y no requieren grandes inversiones de dinero.

El Departamento de Tecnología fracasó en su tarea de preservar la información.  Y lo hizo tan mal, que la información había salido de la firma desde hacía más de un año, y recientemente lo descubrieron, junto con el resto de la humanidad.

De seguro, ya se tomaron las medidas pertinentes.  Difícilmente sabremos en qué estado se encontraban las cosas, pero debe servir de lección a todos.  En estos tiempos la seguridad de la información es un asunto importante.  Prueba de ello son las medidas de seguridad que tomaron los receptores finales de la información, para asegurarse que no se les perdiera o fuese filtrado fuera de los límites establecidos por ellos.

Tenemos un caso de estudio.  Hay que ser listos y aprender por cabeza ajena.

Amanecerá y veremos.

martes, 22 de marzo de 2016

La importancia de conocer lo que ofrece Internet

El pasado 21 de marzo Twitter celebró diez años de existencia.  Esta celebración nos lleva a reflexionar la manera como los avances tecnológicos están influyendo en nuestras vidas.
 
Image courtesy of bluebay at FreeDigitalPhotos.net
Para muchos de nosotros, las computadoras personales han estado acompañándonos en buena parte de nuestras vidas.  Para otros, las computadoras personales ya se encontraban allí para cuando nacieron.
 
El surgimiento del World Wide Web de Internet, justificó, a pesar de los costos, la razón de ser de
poseer una computadora personal en cada uno de nuestros hogares.  El binomio, computadora personal e Internet se volvieron algo inseparables.
De hecho, desde el punto de vista educativo, el poder poseer una computadora con acceso a Internet representaba una gran ventaja en comparación con aquellos que no lo poseían.
Es una realidad que el acceso a Internet desde los dispositivos celulares, ha sido una de las razones por las que se han dado acelerados cambios en cuanto a la capacidad de comunicación en la telefonía móvil y rápido desarrollo de los dispositivos utilizados para tal fin.
Con todos estos cambios, ahora podríamos afirmar que desde el punto de vista tecnológico, la computación es realmente personal.
Ahora bien, desde este punto de vista personal, este rápido desarrollo tecnológico no necesariamente ha ido acompañado del desarrollo de las habilidades necesarias para poder obtener el máximo provecho de Internet.
Sin importar la edad, o cuanta experiencia se tenga con las tecnologías de comunicación, es muy común encontrar personas con serias deficiencias para encontrar información relevante en Internet.
Es fácil descubrir las dificultades que se encuentran para discernir e identificar lo que es información realmente importante.  En muchas ocasiones las personas no saben como o donde realizar las búsquedas de lo que necesitan.
Esta falta de conocimiento hace que las personas no tengan malicia y mucho menos precaución.   Actuando en muchas ocasiones de manera inocente, abren mensajes de correos maliciosos o entran a sitios con publicidad o enlaces engañosos, infectando la computadora con virus, malwares o poniendo en peligro información personal en nuestros equipos y/o en nuestras empresas.
Actualmente, a pesar que Internet está asequible a casi todo el mundo, a unos costos relativamente bajos, la capacidad de poder encontrar información de calidad es todavía una tarea difícil de realizar.  No tanto porque no se encuentre la información deseada, sino porque se desconoce como llegar a la misma, o utilizar las mejores herramientas para poder alcanzarla.
El acceso a Internet ha evolucionado.  Ya no se requieren las computadoras personales para poder tener acceso fácil y cómodo a las páginas Web, sino que ahora, cada vez es más sencillo poder navegar y realizar búsquedas desde una multiplicidad de dispositivos que jamás se habría imaginado con anterioridad.
Conocer, enseñar y aprender a realizar búsquedas de información en Internet es una tarea que se está convirtiendo en una necesidad en todos los niveles educativos.  Realizar esta búsqueda en forma eficiente es de gran utilidad.  Poder identificar fuentes de información de calidad, también es de suma importancia.
Esta es una habilidad que los educadores en general deben dominar y perfeccionar constantemente, pues en su rol de facilitadores del conocimiento deben poder guiar a los estudiantes hacia formas eficientes y efectivas de búsqueda de información.
La importancia de conocer Internet es de invaluable beneficio pues tenemos información disponible de la que podemos obtener y extraer lo que más nos conviene, y en la mayoría de los casos, haciéndolo en todo momento y con total libertad.
En ese sentido, nosotros somos los que establecemos nuestros límites y definimos hasta donde queremos llegar.
 
Entrada escrita originalmente en http://erickjavierd.blogspot.com/

jueves, 18 de febrero de 2016

La tecnología y la importancia de investigar

Este escrito no se refiere a la importancia de invertir o participar en actividades de investigación y desarrollo. Mas bien está relacionado con la búsqueda de información para posteriormente tomar decisiones.

Hace aproximadamente una semana atrás, el 9 de febrero, en el sitio web de Forbes apareció un escrito titulado: Windows 10 Worst Secret Spins Out Of Control. En el mismo se intenta dar una voz de alerta sobre posibles acciones ocultas de Microsoft relacionadas con la privacidad y la captura de información, por parte de Windows 10, sobre lo que los usuarios hacen en sus computadoras.

Para poder denunciar o levantar la curiosidad sobre la transferencia de información, el autor del artículo se basó en una publicación realizada por otra persona que denunciaba los resultados de un trabajo realizado para comprobar que efectivamente Windows 10 transfería información personal hacia servidores de Microsoft.

El artículo, se encontraba muy bien estructurado, de hecho, para el aficionado tecnológico promedio sin muchos conocimientos de comunicación, la información parecía ser veraz y confiable. Además se contaba con la credibilidad necesaria al estar publicado en un sitio de Forbes.

Uno de los lectores que puso atención al artículo, decidió verificar por su propia cuenta la forma como se había realizado la investigación y encontró serias discrepancias.

En un artículo publicado en el sitio ZDnet titulado When it comes to Windows 10 privacy, don't trust amateur analysts, este último autor presenta en forma detallada todos los errores que se cometieron al realizar la prueba que sirvió como base para preparar el artículo aparecido en Forbes.

El artículo publicado por Gordon Kelly en Forbes fue duramente criticado por Ed Bott del Ed Bott Report aparecido en ZDNet.

La polémica estaba montada. Al artículo original se le hicieron varias correcciones. Gordon Kelly nunca hizo mención de los hallazgos de Ed Bott, pero si mencionó un comentario final de Microsoft.

De esta experiencia se pueden rescatar algunos aspectos importantes que debemos tomar en cuenta, si deseamos evitar llegar a conclusiones equivocadas producto de información no tan certera.

En todo momento es importante contrastar la información que se suministra. Vivimos tiempos en los que muchos de los artículos disponibles han sido preparados por personas que escriben como conocedores sin poseer los conocimientos adecuados. Algunos se dedican a repetir lo que otras publicaciones muestran, sobre todo si coinciden con la línea editorial del autor.

Se está a la caza de cualquier tipo de información que conduzca a un descubrimiento de fallas, comportamiento oculto, vulnerabilidades, etc.

El apuro por ser el primero en publicar algo, no siempre va acompañado de una investigación exhaustiva de la fuente que proporciona la información. Además como Internet es tan democrático, la voz se va regando más rápido de lo que se espera. El problema con esto es que esas publicaciones se mantienen, y no todas se hacen eco de aclaraciones, descubrimientos y otro tipo de notificaciones.

Entonces, ¿qué es lo que podemos hacer?. Sencillamente ser precavidos. Tener malicia y verificar la tendencia de la línea editorial de quien preparó el artículo. Si los artículos son muy positivos o muy negativos hacia determinados productos, pues mejor es tener cuidado y cerciorarse de lo que en ellos se argumenta.

Hay que evitar el decidir o sacar conclusiones a partir de la primera fuente de información que se encuentre. Es mejor comprobar o buscar información adicional que valide o contradiga lo que se nos ha presentado.

En todo momento, hay que evitar descartar la información suministrada, aunque esto sea contradictorio. Esto es porque sin saberlo, a veces podemos estar en frente de hallazgos reales con los que hay que esperar que un tercero lo valide o el dueño del producto se manifieste ya sea a favor o en contra.

En fin, como en casi todo en esta vida, no hay que dejar de creer, al mismo tiempo hay que creerlo todo, pero sin creer demasiado.

Amanecerá y veremos.

martes, 19 de enero de 2016

Año 2015, baja en ventas de PCs y Tablets

El año 2015 que recien finalizó fue  interesante para Microsoft, más no así para los fabricantes de computadoras personales.

Mientras que durante el mes de enero, Microsoft anunciaba que Windows 10 ya se encuentra instalado y activo en más de 200 millones de equipos, las consultoras Gartner e IDC anuncian que las ventas de computadoras personales al finalizar el 2015 disminuyeron entre un 8% y un 10%.

La única compañía que no ha caído en ventas ha sido Apple, cuyas MacBook están resultando ser muy atractivas para los consumidores.

El tiempo se ha encargado de demostrar que Windows 10 no representó ayuda alguna para los vendedores de equipos nuevos.  Aquellos tiempos en los que la aparición de una nueva versión del sistema operativo de Microsoft se traducía en ventas de computadoras, han quedado muy atrás en la historia.

La última vez que se dió un crecimiento significativo en las ventas de computadoras personales fue en el 2010.  Coincidencia o no,  ese fue el mismo año en el que salió al mercado la revolucionaria IPad, y después de eso, todo cambió para las computadoras personales.

Al principio, la razón en la disminución de las ventas de computadoras personales se debió a la presencia del IPad y posteriormente a las tablet en general.   El hecho es que las computadoras personales han dejado de ser importantes para una buena parte de los consumidores a nivel mundial.

A partir del 2011, las ventas de computadoras personales ha ido disminuyendo en forma constante, y las cifras del 2015 indican que la tendencia se mantiene.  Es posible que el 2016 no sea muy diferente al 2015.

Pero a diferencia de los años anteriores, la caída en las ventas de la computadoras personales no se le puede atribuir a la buena venta de las tablets, pues si bien al inicio del año 2015 se anticipaba que el crecimiento en las ventas de las tablets estaría alrededor de un modesto 8%, la realidad fue todo lo contrario.   Para diciembre de 2015,  el crecimiento de las ventas de tablets fue negativo.  En otras palabras, se dió una caída del 8% en las ventas de las mismas a nivel mundial.

Los únicos posibles responsables de las caídas en las ventas de las computadoras personales y las tablets han de ser los teléfonos inteligentes (smartphones), no hay duda.  Pero no hay que ver a los de gama alta, sino más bien a los teléfonos de gama media, pues cada vez son fabricados con mejores características técnicas y a precios muy razonables.

En estos, es notable el aumento en la capacidad de los procesadores, el tamaño y calidad de las pantallas, las mejora calidad de las cámaras digitales que incorpora, y al mismo tiempo, la cada vez mayor presencia, en todos los mercados, de fabricantes chinos de equipos de bajo costo y de buena calidad.

Sumado a lo anteriormente expuesto, hay que tomar en cuenta que los teléfonos de gama alta, todavía se siguen vendiendo bien, ahora poseen ciclos de vida superiores a los existentes hace un par de años atrás o por lo menos los dueños se toman un poco más de tiempo en reemplazarlos.

En resumen, una serie de factores son los que están ejerciendo presión en las ventas de computadoras y también tablets con la consecuente disminución de ventas de ambos tipos de productos.  No se sabe si esta tendencia se mantendrá para el año 2016, pero al parecer todo indica que así será.

Amanecerá y veremos.
 

miércoles, 2 de septiembre de 2015

El cercano final de Adobe Flash

Corría el año 2004 y Macromedia hacia público Macromedia Flash MX 2004.  Con este producto, Macromedia iniciaba la consolidación del dominio del formato Flash para contenido interactivo, de multimedia, animación y video para web.

En el 2005 Adobe adquiere Macromedia y el producto se denomina simplemente Adobe Flash.  El poder de esta compañía le ayuda a convertirse en el estándar indiscutible de contenido animado y multimedia para Internet.

Eran los tiempos en los que la navegación por Internet se realizaba en computadoras personales utilizando el ratón como herramienta de selección.  En aquel entonces, los primeros teléfonos inteligentes estaban empezando a surgir y su navegación por la web era algo bastante precario.

Para el año 2010, el formato Flash se encontraba ampliamente distribuido.  Formaba parte de las páginas web y era el formato estándar de animación y video.  Más del 90% de los videos en YouTube estaban o eran convertidos a formato Flash (FLV).

Para aquella época, la revolución de los dispositivos móviles estaban empezando a establecer la tendencia que actualmente estamos viviendo.  Entonces en abril de 2010, Steve Jobs, el gran jefe de Apple, publicó una carta abierta en la que justificaba la razón por la cual ninguno de sus dispositivos móviles, basados en el sistema operativo móvil iOS, iPad, iPod, y el iPhone, soportarían dicho formato.

Lo que más sonó en aquel entonces eran problemas relacionados con seguridad, rendimiento, consumo considerable de recursos y sobre todo una de las principales causas por las que las baterías de estos dispositivos se acababan tan rápido.

Parecía ser una disputa entre Adobe y Apple, sin embargo el tiempo se ha encargado de darle razón a Steve Jobs.  Cinco años después, en este año 2015, ha sido particularmente difícil para la futura existencia del formato Flash.

Hace unos meses atrás, el buscador Mozilla empezó a bloquear contenido Flash debido a que se ha convertido en una fuente de riesgo de seguridad, debido a las vulnerabilidades del mismo y la lentitud de Adobe para remediarlas.   En enero YouTube dejó de lado Flash favoreciendo el uso de HTLM5 y el codec de video H.264.  Ahora, a partir de septiembre, el navegador Google Chrome bloqueara o no reproducirá automáticamente contenido o publicidad basada en Flash.

Amazon también ha anunciado que tomará similares medidas para todo aquel contenido desarrollado en Flash y que se quiera desplegar en sus sitios web.

Adobe no logró transformar Flash desde el mundo del desarrollo de contenido para computadoras personales hacia el mundo de los dispositivos móviles.  Ese ha sido el principal problema.  No pudo evolucionar con los cambios tecnológicos en los que el ratón ya no es el dispositivo de selección por excelencia.  El mundo de la distribución de contenido de multimedios gira alrededor de dispositivos móviles en la que la capacidad táctil se ha convertido en la norma.  Inclusive para las computadoras personales basadas en sistema operativo Windows.

Actualmente, Flash cada vez pierde más terreno.  Es considerada una tecnología antigua y con las últimas medidas tomadas por Google y Amazon, la desaparición de este formato para desarrollar contenido multimedia es sólo cuestión de tiempo.

Viéndolo en perspectiva, y recorriendo un poco la historia reciente nos percatamos que en su momento, la aparición del iPhone y del iPad, marcaron la línea entre un antes y un después.  La revolución del dispositivo móvil ha cambiado muchas cosas y el mundo de las computadoras personales también ha sido beneficiado.

Amanecerá y veremos.

domingo, 9 de agosto de 2015

¿Por qué debemos proteger la red Wi-Fi de nuestro hogar?

Esa es la pregunta que todos nos hacemos cuando se decide instalar facilidad Wi-Fi en nuestras casas, para poder disfrutar de conexión a Internet con total libertad sin depender de una conexión alámbrica cercana.

La instalación y configuración de los equipos cada vez es más sencilla y por lo general la seguridad queda establecida, aunque en forma de recomendaciones que el usuario debe confirmar o puede modificar de acuerdo a su criterio.

A pesar que la información relacionada a este tema es fácil de encontrar, para la mayoría de las personas el asunto de la seguridad informática es algo abstracto, difícil de entender y que se suele asociar con los hábitos particulares.

Así mismo, hay otras personas que piensan que las sugerencias son producto de mentes paranoicas que sólo ven peligros por todos lados, pues piensan que los únicos que deben preocuparse son las grandes compañías.

También hay quienes sin entenderlo totalmente, aceptan todo lo relacionado con seguridad informática porque las grandes compañías lo hacen, y todo lo que es seguro para los negocios, lo es para el hogar.

A pesar que la recomendación es recurrir a la protección, se puede encontrar instalaciones en los que se ha pasado por alto las recomendaciones, ya sea consciente o inconscientemente.

Las dos razones más comunes son la comodidad, porque así no tienen que preocuparse por recordar claves o contraseñas y la otra está por el sentimiento altruista hacia el prójimo, pues económicamente, no les cuesta mucho compartir su Internet.

Lo que suelen ignorar es que el verdadero peligro no radica en el hecho que la compañía que ofrece el servicio a Internet se perjudique, sino más bien que nosotros mismos seamos los que nos perjudiquemos.  Ya sea por ignorancia o negligencia.

El hecho es que por desgracia, no podemos confiar en los seres humanos.  Siempre nos encontraremos a alguna persona que querrá sacarle provecho a la situación, para beneficio propio o para hacer cumplir sus ideales.

Varias son las consecuencias relacionadas con el mantener una red Wi-Fi insegura en el hogar, y la posible lentitud para navegar por Internet es el menor de los males a preocuparse.

Los principales problemas se relacionan a asuntos o consecuencias legales y el riesgo de poner en peligro la privacidad de la información personal.  Y es que al estar conectado a una red insegura, todos los equipos que estén haciendo uso de la misma, están expuestos a actividades ilícitas relacionadas con robo de identidad e información personal.

Por otro lado, tenemos que nuestra facilidad de Internet, instalada en la casa, puede ser utilizada para acciones ilícitas de crimen cibernético en las cuales podemos quedar como responsables o como cómplices, pues nuestra dirección IP que es la que nos identifica y permite que naveguemos por la red, a todas voces, les diría a las autoridades desde donde se generó el crimen.

Tal y como puede suceder en las redes públicas y abiertas, las redes inseguras en el hogar facilitan a hackers y delincuentes informáticos extraer información sobre nuestras contraseñas, información bancaria, acceso a nuestras cuentas de ahorro, tarjetas de crédito, a nuestros contactos, etc.  Y toda esa información puede ser utilizada para robarnos o estafar a otros utilizando la información que guardamos.

Y todo esto, sin que nos enteremos de lo que realmente está sucediendo con nuestra computadora.

En cuanto a nuestra seguridad, la mejor opción es seguir las indicaciones, o consultar con un experto en el área de Informática.  En la medida de lo posible, siempre utilizar contraseñas y mantener los equipos actualizados con los últimos parches de seguridad tanto del sistema operativo, como el del software que se tiene instalado.

Amanecerá y veremos.






sábado, 8 de agosto de 2015

Universal Windows Platform

Con la salida al mundo real de Microsoft Windows 10, se viene a la mente la estrategia que hay detrás de este producto.

Lo que Microsoft está ofreciendo es la misma experiencia Windows 10 en cada dispositivo electrónico en el que se pueda utilizar algunas de las versiones del sistema operativo.

Como cada plataforma de dispositivos es diferente una de la otra, las necesidades y capacidades para ejecutar el sistema operativo varian entre sí.  Por ende no puede haber un único Windows 10 que funcionen con todas las plataformas existentes, sin embargo Microsoft está apostando fuerte a que la experiencia en el uso sea la misma tanto si se está en frente de una PC o se está utilizando algún smartphone, Xbox, tablet, etc.

Con este pensar, Microsoft quiere abarcar mucho más que lo que se estableció cuando salió a la luz pública Windows 8 y para ello, ha creado lo que llama Universal Windows Platform o UWP.

En el mundo de desarrollo de aplicaciones, la plataforma de Windows no es la más atractiva.  Las plataformas de iOS y Android son las que más atención reciben.  De hecho, aceptando esta realidad, BlackBerry incluye en su sistema operativo un emulador que permite que muchas de las aplicaciones que se desarrollan para Android, puedan ser utilizadas sin problemas con los teléfonos BlackBerry.

Con UWP, Microsoft lo que desea es unificar todas las plataformas bajo una única tienda que posea aplicaciones que puedan correr en cualquier de estas.  Para lograr este objetivo Microsoft ha creado unas herramientas agrupadas bajo Windows Bridge.

Windows Bridge permite poder utilizar un mismo código fuente para que estas aplicaciones puedan ser utilizadas en PCs, tablets, teléfonos, Surface Hub, XBox, HoloLens y las minicomputadoras Raspberry Pi.

En la pasada conferencia para desarrolladores, Build, Microsoft dio a conocer detalles generales sobre esta iniciativa, dando a conocer de la existencia de cuatro herramientas que permitirían convertir aplicaciones existentes para Android, iOS, aplicaciones Clásicas para Windows y aplicaciones Web para tenerlas disponibles en el Windows Store y ser utilizadas en Windows 10, en cualquiera de sus versiones.

En estos momentos, estas herramientas están en la etapa de desarrollo y se conocen como proyectos.
Los Windows Bridge para UWP que se están desarrollando en estos momentos son:

  • Project Astoria o Project A, que permite crear aplicaciones a partir del código utilizado para Android.
  • Project Centennial, permite a los desarrolladores empacar y publicar el actual código .NET y Win32 para Windows, hacia Windows Store.
  • Project Westminster, que permite a los desarrolladores crear una aplicación Windows que encapsula un sitio Web para publicarlo en Windows Store.  Una vez publicado, se pueden seguir haciendo mejoras al mismo sin la necesidad de volver a actualizar la aplicación en Windows Store.
  • Project Islandwood, que permite a los desarrolladores de iOS poder crear aplicaciones Universal Windows a partir del código Objective-C existente.  También permitirá poder importar proyectos completos de XCode.

El pasado 7 de agosto, Microsoft hizo público este último, que ahora se denomina Microsoft Bridge para iOS.

El claro objetivo de Microsoft con estas herramientas es la de tratar de hacer más atractiva la plataforma Windows 10 a los desarrolladores, facilitandoles el trabajo de llevar las aplicaciones ya conocidas hacia su plataforma, con el menor esfuerzo posible.

Este es un enfoque completamente diferente al que se tenía anteriormente, mucho más ambicioso y al mismo tiempo interesante, pues con una sóla herramienta y algunos ajustes, una aplicación existente en Android o iOS, fácilmente podrá ser llevada hacia Windows 10 phone, por mencionar un escenario.

Sólo el tiempo establecerá si esta facilidad ofrecida es lo suficientemente atractiva para los desarrolladores y sobre todo, si le permite a Windows Phone, entre otros, poder tener una mayor presencia en cuanto al número de unidades vendidas.

Amanecerá y veremos.

miércoles, 5 de agosto de 2015

Estratégica movida de Microsoft

En los últimos diez años, los cambios tecnológicos que se han dado en el mundo de la telefonía celular se han dado a un paso mucho más acelerado de lo que presenciamos en el mundo de las PCs.

Poco a poco, el mercado se ha ido consolidando en dos plataformas de sistemas operativos.  Por un lado tenemos a todas las versiones y derivados de Android y por otro lado tenemos al iOS de Apple. Juntos representan más del 90% de los dispositivos móviles en uso a nivel mundial.

Pero eso no fue siempre así.  Hubo un momento en los que se pudieron tener para escoger hasta seis sistemas operativos diferentes.  Pero esos días de emoción fueron cortos y pasaron muy rápido.

Actualmente tenemos cuatro plataformas diferentes.  Dos realmente exitosas y otras dos luchando por la subsistencia.  Estas dos últimas son BlackBerry, cual testarudo que se rehúsa a desaparecer y Windows Phone, que ha pesar de todo el dinero invertido y el tiempo de estar en el mercado con sus diferentes versiones, no ha podido llamar la atención de los consumidores para que adopten favorablemente esta plataforma.

Microsoft, con un sistema operativo muy bueno ha hecho de todo, pero las cosas no le han salido como han deseado.  De hecho, se dice que ellos hacen más dinero, por los derechos de sus patentes, pagados por los fabricantes de Android que por las ventas de sus propios dispositivos móviles.

La opción disponible para lograr cambiar el rumbo de los acontecimientos estaba en encontrar un fabricante grande y conocido que se dedicara exclusivamente a desarrollar equipos para el sistema operativo Windows Phone.

Y Microsoft encontró al socio adecuado para esta tarea, Nokia.  El otrora gigante de la telefonía celular estaba pasando por momentos difíciles, pues los consumidores ya no les preferían como en años anteriores y la compañía se encontraba en una situación delicada.

Como una tabla de salvación, decidió aliarse con Microsoft para utilizar su sistema operativo.  Lo veían como la única oportunidad que tenían para que volvieran a los tiempos de gloria.  Era una alianza para atender necesidades comunes.

Pasó poco tiempo para descubrir que ninguna de las dos compañías obtendrían los resultados que esperaban y en lugar de tomar caminos por separado, Microsoft en un intento desesperado por cambiar el rumbo de las cosas decidió comprar Nokia.

La idea detrás de esta decisión era la de poder controlar el destino de los equipos, de principio a fin, algo así como lo hace Apple con su iPhone.  No tuvo que pasar mucho tiempo para que Microsoft descubriera que todo seguía igual, e inclusive el panorama no mejoraba.

En julio, Microsoft decidió dejar caer la bomba y acabar con el suplicio.  De un solo plumazo líquido la operación móvil adquirida con Nokia y decidió asumir como pérdida lo invertido en la compra de Nokia.

En ese momento la primera impresión fue que Microsoft se retiraría del mundo celular, como si hubiese claudicado, al no poder lograr ser la primera opción en el gusto de los consumidores.  Sin embargo en ese mismo momento  surge información que hace que todo no se vea tan sencillo y hasta contradictorio pues informaban que continuarían desarrollando productos para segmentos altos, medios y bajos del mercado de telefonía celular.

Entonces la pregunta que queda en el aire es ¿A qué se va a dedicar Microsoft?.  La respuesta la podemos encontrar algo más claro en una entrevista que Mary Jo Foley, de ZDNet.com, hizo al CEO de Microsoft Satya Nadella y que se puede encontrar en este enlace.

Básicamente, Microsoft va a volver a repetir la experiencia de la Surface, en la que, según su punto de vista, ellos ayudaron a crear un nuevo tipo de computadora, que anteriormente no existía,  nos referimos a las portátiles híbridas o convertibles.

Al parecer, la funcionalidad de sus nuevos equipos no se comparará con las opciones convencionales de uso que encontramos en los Android, iPhones o BlackBerry.  Sus dispositivos móviles estarán alineados al funcionamiento de Windows 10 y lo que se pueda ofrecer en las Universal Windows Apps.  Algo así como centrarse en el funcionamiento de un dispositivo en el mundo corporativo, en donde Facebook, Whatsapp y muchas otras aplicaciones no son de mucho peso en la productividad del día a día de sus ejecutivos.

Productividad y seguridad es la apuesta de la movida estratégica de Microsoft y una de sus principales herramientas será Continuum, mostrada al público en la reciente edición de Microsoft Build que se llevó a cabo a finales de abril.

Amanecerá y veremos.