SubNiveles del lenguaje

Enviado por Programa Chuletas y clasificado en Informática y Telecomunicaciones

Escrito el en español con un tamaño de 22,01 KB

Business Intelligence

Business Intelligence es la habilidad para transformar los datos en información, y la información en conocimiento, de forma que se pueda optimizar el proceso de toma de decisiones en los negocios.

Desde un punto de vista más pragmático, y asociándolo directamente con las tecnologías de la información, podemos definir Business Intelligence como el conjunto de metodologías, aplicaciones y tecnologías que permiten reunir, depurar y transformar datos de los sistemas transaccionales e información desestructurada (interna y externa a la compañía) en información estructurada, para su explotación directa (reporting, análisis OLTP / OLAP, alertas...) o para su análisis y conversión en conocimiento, dando así soporte a la toma de decisiones sobre el negocio.

La inteligencia de negocio actúa como un factor estratégico para una empresa u organización, generando una potencial ventaja competitiva, que no es otra que proporcionar información privilegiada para responder a los problemas de negocio:
entrada a nuevos mercados, promociones u ofertas de productos, eliminación de islas de información, control financiero, optimización de costes, planificación de la producción, análisis de perfiles de clientes, rentabilidad de un producto concreto, etc...

Los principales productos de Business Intelligence que existen hoy en día son:

*   Cuadros de Mando Integrales (CMI)

*   Sistemas de Soporte a la Decisión (DSS)

*   Sistemas de Información Ejecutiva (EIS)


Por otro lado, los principales componentes de orígenes de datos en el Business Intelligence que existen en la actualidad son:

*   Datamart

*   Datawarehouse

Los sistemas y componentes del BI se diferencian de los sistemas operacionales en que están optimizados para preguntar y divulgar sobre datos. Esto significa típicamente que, en un datawarehouse, los datos están desnormalizados para apoyar consultas de alto rendimiento, mientras que en los sistemas operacionales suelen encontrarse normalizados para apoyar operaciones continuas de inserción, modificación y borrado de datos. En este sentido, los procesos ETL (extracción, transformación y carga), que nutren los sistemas BI, tienen que traducir de uno o varios sistemas operacionales normalizados e independientes a un único sistema desnormalizado, cuyos datos estén completamente integrados.

En definitiva, una solución BI completa permite:

*  Observar ¿qué está ocurriendo?

*  Comprender ¿por qué ocurre?

*  Predecir ¿qué ocurriría?

*  Colaborar ¿qué debería hacer el equipo?

Decidir ¿qué camino se debe seguir?  


Arquitectura de una solución de Business Intelligence

Una solución de Business Intelligence parte de los sistemas de origen de una organización (bases de datos, ERPs, ficheros de texto...), sobre los que suele ser necesario aplicar una transformación estructural para optimizar su proceso analítico.

Para ello se realiza una fase de extracción, transformación y carga (ETL) de datos. Esta etapa suele apoyarse en un almacén intermedio, llamado ODS, que actúa como pasarela entre los sistemas fuente y los sistemas destino (generalmente un datawarehouse), y cuyo principal objetivo consiste en evitar la saturación de los servidores funcionales de la organización.

La información resultante, ya unificada, depurada y consolidada, se almacena en un datawarehouse corporativo, que puede servir como base para la construcción de distintos datamarts departamentales. Estos datamarts se caracterizan por poseer la estructura óptima para el análisis de los datos de esa área de la empresa, ya sea mediante bases de datos transaccionales (OLTP) o mediante bases de datos analíticas (OLAP).

Los datos albergados en el datawarehouse o en cada datamart se explotan utilizando herramientas comerciales de análisis, reporting, alertas... Etc. En estas herramientas se basa también la construcción de productos BI más completos, como los sistemas de soporte a la decisión (DSS), los sistemas de información ejecutiva (EIS) y los cuadros de mando (CMI) o Balanced Scorecard (BSC).


Lenguaje LISP

El LISP es un lenguaje de programación creado por el profesor John McCarthy a finales de los años 50. John McCarthy quiso desarrollar un lenguaje que mostrara la información estructurada en listas en las que se pudieran gestionar esta. De ahí el nombre que le dio a este lenguaje, Lisp (List-Processing), porque fue creado principalmente para el procesamiento de listas.

Con el trascurso del tiempo el Lisp dio origen a varios dialectos. Entre los más importantes podemos citar a: el MACLISP, COMMONLISP, INTERLISP, ZETALISP, etc. De todos ellos el COMMONLISP se está consolidando como el estándar. Del Lisp posteriormente surgíó otro lenguaje de programación importante como es el Logo.

El Lisp es un lenguaje funcional que se apoya en la utilización de funciones matemáticas para el control de los datos. Pero el elemento fundamental en el Lisp es la lista. Y desde el punto de vista más amplio del término. Cada función del lisp y cada programa que generemos con él vienen dado en forma de lista. Por esta razón los datos no se pueden diferenciarse sintácticamente de los programas.

A este tipo de lenguaje se les denomina aplicativos o funcionales porque se basan en la aplicación de funciones a los datos. El lisp diferencia dos tipos de elementos básicos: El átomo, datos elementales de varios tipos como números, símbolos, caracteres y cadenas de caracteres. Y las Listas, entre las que podemos nombrar a un en especial. La lista “nil”, que es una lista nula que no tiene ningún elemento.


Lenguaje Prolog

Prolog es un lenguaje de programación desarrollado en la Universidad de Aix-Marseille (Marsella, Francia) por los profesores Alain Colmerauer y Philippe Roussel, como una herramienta práctica para programación lógica. Nacíó de un proyecto que no tenía como objetivo la implementación de un lenguaje de programación, sino el procesamiento de lenguajes naturales. 

Prolog es un lenguaje de programación seminterpretado. Su funcionamiento es muy similar a Java. El código fuente se compila a un código de byte el cuál se interpreta en una máquina virtual denominada Warren Abstract Machine (comúnmente denominada WAM).

Por eso, un entorno de desarrollo Prolog se compone de:

  • Un compilador: Transforma el código fuente en código de byte. A diferencia de Java, no existe un Standard al respecto. Por eso, el código de byte generado por un entorno de desarrollo no tiene por qué funcionar en el intérprete de otro entorno.
  • Un intérprete: Ejecuta el código de byte. Un shell o top-level. Se trata de una utilidad que permite probar los programas, depurarlos, etc. Su funcionamiento es similar a los interfaces de línea de comando de los sistemas operativos.
  • Una biblioteca de utilidades: Estas bibliotecas son, en general, muy amplias. Muchos entornos incluyen (afortunadamente) unas bibliotecas standard-ISO que permiten funcionalidades básicas como manipular cadenas, entrada/salida, etc.


Lenguaje CLIPS

CLIPS es el acrónimo de (C Language Integrated Production System) creado por Gary Riley en el año 1984 en el Space Center de la NASA, siendo el lenguaje más usado para desarrollar sistemas expertos, debido a que es ágil y eficiente además de ser gratuito y sigue siendo actualizado por su autor original.

Su lenguaje permite representar reglas de producción y frames, donde su base es un motor de inferencias con razonamiento hacia adelante, este motor de inferencias esta implementado sobre un intérprete del lenguaje. El lenguaje CLIPS deriva su sintaxis del lenguaje LISP,

Los tipos de datos predefinidos que nos interesarán son: reales, enteros, strings, símbolos, apuntador a hechos, nombre de instancia y apuntador a instancia. Los tipos habituales poseen los operadores más comunes.

Lenguaje Haskell

Este lenguaje nacíó en el año 1987, desde entonces se ha desarrollado considerablemente como un lenguaje de programación funcional puro, de propósito general. El Haskell tiene todas las innovaciones de los lenguajes funcionales como son: desarrollo de las funciones de orden superior, evaluación perezosa, tipos definidos por el usuario, tipos polimórficos estáticos, definiciones de listas por comprensión, encajes patronales, etc.

El Haskell fue el lenguaje unificador de todas las carácterísticas principales de los lenguajes funcionales. Al crearse el Haskell se vio que no había un tratamiento bien definido de la sobrecarga por lo que se construyeron las clases de tipos. Posteriormente se le incorpora al Haskell otras carácterísticas como: entrada/salida funcional, definición de arrays por compresión, registros para nombrar componentes de tipos de datos, clases de construcción de tipos y varias librerías de propósito general.

Redes neuronales

Las Redes Neuronales son un campo muy importante dentro de la Inteligencia Artificial. Inspirándose en el comportamiento conocido del cerebro humano (principalmente el referido a las neuronas y sus conexiones), trata de crear modelos artificiales que solucionen problemas difíciles de resolver mediante técnicas algorítmicas convencionales. 

La neurona biológica

Fue Ramón y Cajal (1888) quién descubríó la estructura celular (neurona) del sistema nervioso. Defendíó la teoría de que las neuronas se interconectaban entre sí de forma paralela, y no formando un circuito cerrado como el sistema sanguíneo.

Una neurona consta de un cuerpo celular (soma) de entre 10 y 80 mm, del que surge un denso árbol de ramificaciones (dendritas) y una fibra tubular (axón) de entre 100 mm y un metro.

De alguna forma, una neurona es un procesador de información muy simple:


·        Canal de entrada: dendritas

·        Procesador: soma

·        Canal de salida: axón

Una neurona cerebral puede recibir unas 10.000 entradas y enviar a su vez su salida a varios cientos de neuronas


La conexión entre neuronas se llama sinapsis. No es una conexión física, sino que hay unos 2 mm de separación. Son conexiones unidireccionales, en la que la transmisión de la información se hace de forma eléctrica en el interior de la neurona y de forma química entre neuronas; gracias a unas sustancias específicas llamadas neurotransmisora.


Proyecto Watson IBM

Es una plataforma tecnológica que utiliza procesamiento del lenguaje natural y aprendizaje automático para revelar información clave de las grandes cantidades de datos no estructurados.

El Grupo Watson tiene su sede central en el centro tecnológico de Nueva York conocido como Silicon Alley. Su tarea consiste en identificar mercados y áreas que la computación cognitiva pueda revolucionar, en sectores como el de sanidad, la distribución, los servicios financieros, los viajes y las telecomunicaciones.

IBM Watson es la primera plataforma de tecnología de computación cognitiva abierta. Representa una nueva era en la computación, en la cual los sistemas comprenden el mundo de la manera en que lo hacen los humanos: a través de los sentidos, el aprendizaje y la experiencia. Watson aprende continuamente, acumulando valor y conocimiento con el tiempo, a partir de interacciones previas. Con la ayuda de Watson, las organizaciones aprovechan el poder de la computación cognitiva para transformar industrias, ayudar a los profesionales a hacer mejor su trabajo y resolver desafíos importantes.


Un hecho que explica por qué los sistemas cognitivos son tan necesarios es el surgimiento del big data. Todos los días se generan 2.500 millones de gigabytes de datos. Es el equivalente de aproximadamente 170 diarios entregados a cada persona en el planeta. Al trabajar para tomar decisiones basadas sobre la información, las organizaciones necesitan sistemas avanzados que sean capaces de procesar cantidades masivas de datos estructurados y no estructurados, y producir conocimientos accionables en cuestión de segundos. IDC predice que hacia 2018, la mitad de los consumidores interactuará regularmente con servicios basados sobre computación cognitiva.

Watson se usa para expandir la especialización y mejorar la toma de decisiones. Sus áreas incluyen salud, servicios financieros, legislación, comercio minorista y educación. Hoy cientos de clientes y asociados tienen proyectos activos en marcha con Watson. Ellos se encuentran en 36 países alrededor del mundo y en más de 29 industrias. Se estima que este trabajo se intensificará a medida que IBM extienda Watson a nuevos sectores y geografías.


¿Qué es big data?

Es un concepto que hace referencia al tratamiento y análisis de enormes repositorios de datos tan desproporcionadamente grandes que resulta imposible manejarlos con las herramientas de bases de datos y analíticas convencionales. Inclusive a partir de datos que se estén generando en tiempo real y que provienen de redes sociales, sensores, dispositivos de diversa índole o de fuentes de audio y video. De esta manera, es posible identificar y predecir con detalle las causas o efectos de eventos, sucesos o procesos complejos.

Entradas relacionadas: