domingo, 20 de octubre de 2019

Conceptos Básicos de Minería de Datos - Tutoria 1

Minería de Datos

La minería de datos o exploración de datos es un campo de la estadística y las ciencias de la computación referido al proceso que intenta descubrir patrones en grandes volúmenes de conjuntos de datos. Utiliza los métodos de la inteligencia artificial, aprendizaje automático, estadística y sistemas de bases de datos. 

El objetivo general del proceso de minería de datos consiste en extraer información de un conjunto de datos y transformarla en una estructura comprensible para su uso posterior. Además de la etapa de análisis en bruto, supone aspectos de gestión de datos y de bases de datos, de procesamiento de datos, del modelo y de las consideraciones de inferencia, de métricas de Intereses, de consideraciones de la teoría de la complejidad computacional, de post-procesamiento de las estructuras descubiertas, de la visualización y de la actualización en línea.

Procesos de minería de datos (KDD)

El proceso del KDD es Interactivo e Iterativo (con muchas decisiones tomadas por el usuario) e implica numerosos pasos que se resumen así:

Aprendizaje del dominio de la aplicación: este paso incluye la adquisición del conocimiento previo relevante y el planteo de los objetivos de la aplicación.
Creación de un conjunto de datos de destino: por medio de esto se escoge el conjunto de datos o se elige el subconjunto de variables o muestras de datos en los cuales el descubrimiento se va a realizar.

Limpieza de datos y procesamientos: aquí se dan las operaciones básicas como la eliminación de ruido, la recogida de la información necesaria para modelar, la determinación de estrategias para el manejo de los campos de datos que faltan, la contabilidad de la información en tiempo y secuencia de los cambios conocidos, la decisión en torno al uso de DBMS (tales como tipos de datos y esquemas) y la asignación de valores desaparecidos y desconocidos.
Reducción de datos y de proyección: en este punto se lleva a cabo la búsqueda de las características útiles para representar los datos, dependiendo del objetivo y de la tarea. Para ello, se ejecuta la reducción de dimensionalidad o se aplican métodos de transformación que permitan acortar el numero efectivo de las variables en estudio o encontrar las representaciones invariables para los datos.

Elección de la función de minería de datos: a través de esto se decide el propósito del modelo derivado por medio del algoritmo de minería de datos (por ejemplo, la clasificación, la regresión y la agrupación).
Elección del algoritmo de minería de datos: en esta parte se eligen los métodos que van a ser utilizados para la búsqueda de patrones en el conjunto de los datos, tales como decidir qué modelos y parámetros pueden ser apropiados (por ejemplo, modelos para los datos categóricos diferentes de los modelos en los vectores más reales) y establecer con que método de minería esto pueden ser aplicados (por ejemplo, el usuario puede estar más interesado en  la compresión del modelo que en sus capacidades de predicción).
Realización de Minería de Datos:  aquí se da la búsqueda de patrones de interés dentro de una forma de representación particular o el conjunto de tales representaciones, en el cual se incluyen las reglas de clasificación o árboles, la regresión, el clustering, el modelo secuencial, la dependencia y el análisis lineal.
Interpretación: en este paso se realiza la interpretación de los patrones detectados y, en algunos casos, también se vuelve a cualquiera de los momentos anteriores. Luego de ello, se hace la posible visualización de los posibles patrones extraídos, la eliminación de los patrones redundantes o irrelevantes y a la traducción de los patrones útiles a términos que sean comprensibles para los usuarios.
Utilización del conocimiento descubierto: este último paso implica la incorporación de los conocimientos extraídos de pro del rendimiento del sistema, tomando acciones basadas en dicho conocimiento o simplemente documentándolo e informándolo a las partes interesadas. Asimismo, también se comprueban y resuelven los conflictos potenciales a partir de lo extraído de este conocimiento.


METODOLOGÍA CRISP
Es la metodología líder en la industria para un modelo de proceso de minería de datos. Consta de seis grandes fases interconectadas: (1) conocimiento de la empresa, (2) conocimiento de datos, (3) preparación de datos, (4) modelado, (5) evaluación e (6) implementación.





MODELO

Con miles de datos, necesitamos limpiarlos (eliminar fragmentos inútiles, repetidos, etc.) y organizarlos, y una vez realizado este proceso decimos que tenemos “Información”.

La información hay que tratarla con un modelo para obtener resultados o conclusiones a los que llamamos “Conocimiento”. Es decir, el conocimiento es información analizada. Para este análisis hay diferentes modelos de minería de datos. Digamos que un modelo es una forma de aplicar un tratamiento a una cantidad masiva de datos para extraer información de ellos. Podemos citar por ejemplo dos de ellos:

Modelo de red neuronal: en una red neuronal tendríamos múltiples nodos que constituyen puntos de entrada de los datos. Esos datos son agrupados y sometidos a un tratamiento mediante un algoritmo que da lugar a que se obtengan unos resultados.

mineria de datos



De las redes neuronales suele decirse que son cajas negras, porque el proceso de tratamiento de los datos hasta obtener el resultado no siempre sigue unas pautas lógicas o comprensibles por el ser humano. Sin embargo, su interés radicaría en que son herramientas útiles para realizar predicciones, por lo que son usadas en numerosas aplicaciones.
Modelo de árbol de decisión: se trata de la aplicación del conocido procedimiento del “divide y vencerás”. Sobre los datos, se van realizando sucesivas bifurcaciones hasta llegar a un resultado. Sigue unas pautas lógicas, por lo que se dice que es una “caja blanca”, o proceso comprensible por el ser humano. A modo de anécdota, podemos citar un juego web denominado “Akinator el genio adivino”. El juego consiste en que pensamos en un personaje y el sistema nos va haciendo una serie de preguntas: por ejemplo, si es hombre o mujer. Con esta pregunta, se descartan aproximadamente el 50 % de los items en la base de datos. A continuación nos puede preguntar si es un personaje vivo, con lo cual descarta otro porcentaje significativo. En base a bifurcaciones, se llega finalmente al personaje en la base de datos que corresponde con el que habíamos pensado y se produce la “adivinación”.



data mining

MODELO HÍBRIDO

Un modelo híbrido es aquel que surge de la unión de dos técnicas de minería de datos a más. es este curso se desarrollarán como ejemplo la técnica de árboles de decisión y la técnica de redes neuronales.
Goddard et al (1995), ha indicado que los métodos de máquinas de aprendizaje más utilizados en tareas de clasificación son los árboles de decisión (AD) y las redes neuronales (RN), con respecto a las RN, la arquitectura más utilizada es la de los llamados Perceptrones multicapa (PMC).
Sin embargo, advierten los autores "Cada uno de ellos [el AD y el RN] pueden presentar distintas dificultades en las aplicaciones del mundo real. por ejemplo, los AD puede ser pocos flexibles para generalizar sobre datos de prueba y excesivamente ramificados, en el caso de los PMC hay que definir su estructura, numero de nodos y capas y aún definida esta, no hay garantía que converja a una solución aceptable.".
Debido a las desventajas antes mencionadas, lo que propones estos autores es un método para implementar un PMC, a partir de un AD y luego comparar el desempeño del método implementado en relación al AD y con respecto a un PMC definido por separado.
PREDICCIÓN

En la predicción el objetivo es desarrollar un modelo en el que se pueda inferir un solo aspecto de los datos (variable predicha) a partir de una combinación de otros aspectos de los mismos (variables predictoras). La predicción requiere, entonces, tener etiquetas para la variable de salida de un conjunto limitado de datos, en el cual una etiqueta representa una información de confianza sobre el valor de la variable de salida en casos específicos. En algunas ocasiones, sin embargo, es importante tener en cuenta el grado en que estas etiquetas pueden ser de hecho aproximada o incompletamente fiables.

ALMACÉN DE DATOS (DATA WAREHOUSE)

Un almacén de datos se define como un conjunto de datos integrados, orientados a un tema de negocio como ventas, compras, almacén, marketing, etc; que varían con el tiempo; que no son transitorios y que soportan el proceso de toma de decisiones administrativas (Inmon, 2005). A partir de esta serie de características se puede pasar a establecer y detallar los siguientes conceptos relacionados a esta plataforma:

  • Conjunto orientado: los datos que se encuentran en un data warehouse (DW) están vinculados con las operaciones de una organización, por ejemplo, con las actividades de venta y compra, con los clientes, con el área de recursos humanos, etc.
  • Datos Integrados: los datos tomados de distintos sistemas de la empresa son recopilados y almacenados en una fuente coherente y homogénea.
  • Variables en el tiempo y no transitorios: los datos del data warehouse (DW) incluyen los datos actuales e históricos de la organización, suelen almacenarse como agregados y no deben ser eliminados, ni modificados.

Algunas Definiciones:

  • Bill Inmon(científico informático estadounidense, reconocido por muchos como el padre del almacén de datos.)
    Fue uno de los primeros autores en escribir sobre el tema de los almacenes de datos, define un data warehouse (almacén de datos) en términos de las características del repositorio de datos:

  • Orientado a temas:  Los datos están organizados de manera que todos los elementos de datos relativos al mismo evento u objeto del mundo real queden unidos entre sí.
  • Variante en el tiempo: Los cambios producidos en los datos a lo largo del tiempo quedan registrados para que los informes que se puedan generar reflejen esas variaciones.
  • No volátil: La información no se modifica ni se elimina, una vez almacenado un dato, éste se convierte en información de sólo lectura, y se mantiene para futuras consultas.
  • Integrado: La base de datos contiene los datos de todos los sistemas operacionales de la organización, y dichos datos deben ser consistentes

Inmon defiende una metodología descendente Top-Down “De arriba abajo (En el modelo top-down se formula un resumen del sistema, sin especificar detalles. Cada parte del sistema se refina diseñando con mayor detalle. Cada parte nueva es entonces redefinida, cada vez con mayor detalle, hasta que la especificación completa es lo suficientemente detallada para validar el modelo), a la hora de diseñar un almacén de datos, ya que de esta forma se considerarán mejor todos los datos corporativos. En esta metodología los Data marts (Son subconjuntos de datos con el propósito de ayudar a que un área específica dentro del negocio pueda tomar mejores decisiones. Los datos existentes en este contexto pueden ser agrupados, explorados y propagados de múltiples formas para que diversos grupos de usuarios realicen la explotación de los mismos de la forma más conveniente según sus necesidades), se crearán después de haber terminado el data warehouse completo de la organización.

  • Ralph Kimball(Es uno de los arquitectos originales del almacenamiento de datos y es conocido por sus convicciones a largo plazo de que los almacenes de datos deben estar diseñados para ser comprensibles y rápidos)
Es otro conocido autor en el tema de los data warehouse, define un almacén de datos como: "Es una almacén de datos que extrae, limpia, conforma y entrega una fuente de datos dimensional para la consulta y el análisis".​ También fue Kimball quien determinó que un data warehouse no era más que: "la unión de todos los Data marts de una entidad". Defiende por tanto una metodología ascendente Bottom-UpDe abajo arriba (se formula un resumen del sistema, sin especificar detalles. Cada parte del sistema se refina diseñando con mayor detalle. Cada parte nueva es entonces redefinida, cada vez con mayor detalle, hasta que la especificación completa es lo suficientemente detallada para validar el modelo. El modelo top-down se diseña con frecuencia con la ayuda de "cajas negras" que hacen más fácil cumplir requisitos aunque estas cajas negras no expliquen en detalle los componentes individuales) a la hora de diseñar un almacén de datos.
Las definiciones anteriores se centran en los datos en sí mismos. Sin embargo, los medios para obtener esos datos, para extraerlos, transformarlos y cargarlos, las técnicas para analizarlos y generar información, así como las diferentes formas para realizar la gestión de datos son componentes esenciales de un almacén de datos. Muchas referencias a un almacén de datos utilizan esta definición más amplia. Por lo tanto, en esta definición se incluyen herramientas para extraer, transformar y cargar datos, herramientas para el análisis (inteligencia empresarial) y herramientas para gestionar y recuperar los metadatos.
Un almacén de datos generalmente reside en servidores dedicados a esta función que ejecutan un sistema de administración de bases de datos (DBMS) como SQL Server. Se utiliza una herramienta de software de extracción, transformación y carga ( ETL ) como SQL Server Integration Services (SSIS) para obtener datos de cada fuente apropiada, incluidos los sistemas ERP que puedan estar en uso. Las herramientas ETL extraen datos de los sistemas de origen, los leen y editan, luego organizan los datos de una manera que facilita el análisis.


Big Data

Denominamos Big Data a la gestión y análisis de enormes volúmenes de datos que no pueden ser tratados de manera convencional, ya que superan los límites y capacidades de las herramientas de software habitualmente utilizadas para la captura, gestión y procesamiento de datos.

Dicho concepto engloba infraestructuras, tecnologías y servicios que han sido creados para dar solución al procesamiento de enormes conjuntos de datos.[1]

Se debe cumplir con el Big Data unas características que hacen referencia a las 3(V) volumen, variedad y velocidad, sin embargo, el Big Data a ampliado la definición original incorporando dos características más, valor del dato y veracidad; las cuales son las 5 (V) y estas son:

  • Volumen: Gran cantidad de información, difícil de procesar con los medios tradicionales.
  • Variabilidad: Los datos deben ser diferentes, si los datos son de una misma base de datos no tienen mucho reto, eso simplemente se analiza como un motor de base de datos tradicional, pero al venir de diversas fuentes ya hablamos de Big Data
  • Velocidad: La velocidad es muy importante para este tema, es decir, con qué velocidad cambian estos datos, nunca dejan de llegar nuevos datos.
  • Veracidad: Significa saber qué datos son veraces y que datos no
  • Valor: Es saber el valor que tan pertinente es esta información para los objetivos que están buscando.

Este concepto incluye tecnologías, infraestructuras y servicios creados para dar soluciones a procesamientos enormes de conjuntos de datos estructurados, no estructurados o semiestructurados, estos pueden provenir de sensores, archivos de audio, micrófonos, cámaras, escáneres médicos, imágenes, teléfonos inteligentes entre otros.

El objetivo principal de Big Data es transformar los datos en información para así facilitar la toma de decisiones a un tiempo real. La importancia no es solo en cuestión de tamaño sino en una oportunidad de negocio.
Inteligencia Artificial
La (IA) hace posible que las máquinas aprendan de la experiencia, se ajusten a nuevas aportaciones y realicen tareas como hacen los humanos. La mayoría de los ejemplos de inteligencia artificial de los que usted escucha hoy día – desde computadoras que juegan ajedrez hasta automóviles que se conducen por sí solos – se sustentan mayormente en aprendizaje a fondo (deep learning) y procesamiento del lenguaje natural. Mediante el uso de estas tecnologías, las computadoras pueden ser entrenadas para realizar tareas específicas procesando grandes cantidades de datos y reconociendo patrones en los datos.


Historia de la Inteligencia Artificial


El término inteligencia artificial fue adoptado en 1956, pero se ha vuelto más popular hoy día gracias al incremento en los volúmenes de datos, algoritmos avanzados, y mejoras en el poder de cómputo y el almacenaje.

La investigación inicial de la inteligencia artificial en la década de 1950 exploraba temas como la solución de problemas y métodos simbólicos. En la década de 1960, el Departamento de Defensa de los Estados Unidos mostró interés en este tipo de trabajo y comenzó a entrenar computadoras para que imitaran el razonamiento humano básico. Por ejemplo, la Defense Advanced Research Projects Agency (DARPA, Agencia de Proyectos de Investigación Avanzada de Defensa) realizó proyectos de planimetría de calles en la década de 1970. Y DARPA produjo asistentes personales inteligentes en 2003, mucho tiempo antes que Siri, Alexa o Cortana fueran nombres comunes.

Este trabajo inicial abrió el camino para la automatización y el razonamiento formal que vemos hoy en las computadoras, incluyendo sistemas de soporte a decisiones y sistemas de búsqueda inteligentes que pueden ser diseñados para complementar y aumentar las capacidades humanas.

Aunque las películas de Hollywood y las novelas de ciencia ficción representan la inteligencia artificial como robots semejantes a humanos que se apoderan del mundo, la evolución actual de las tecnologías IA no es tan aterradora – o así de inteligente. En su lugar, la inteligencia artificial ha evolucionado para brindar muchos beneficios específicos a todas las industrias. Siga leyendo para conocer ejemplos modernos de inteligencia artificial en las áreas de atención a la salud, comercio detallista y más.



 

Categorías de la Inteligencia Artificial:

  • Búsqueda heurística: Se puede definir heurística como un truco o estrategia que limita grandiosamente la búsqueda de soluciones ante grandes espacios de problemas. Por lo tanto, ante un problema, ayuda a seleccionar las bifurcaciones dentro de un árbol con más posibilidades; con ello se restringe la búsqueda, aunque no siempre se garantiza una solución adecuada. Todo lo que se debe tener en cuenta para que una heurística sea adecuada es que proporcione soluciones que sean lo suficientemente buenas. Además, con la utilización de la búsqueda heurística, no será necesario replantear un problema cada vez que se afronte, ya que si ya ha sido planteado anteriormente, esta sugerirá la forma en que se ha de proceder para resolverlo.

  • Representación del conocimiento. La representación es una cuestión clave a la hora de encontrar soluciones adecuadas a los problemas planteados.Según Barr y Feigenbaum, la representación del conocimiento es una combinación de estructuras de datos y procedimientos de interpretación que, si son utilizados correctamente por un programa, este podrá exhibir una conducta inteligente; según Fariñas y Verdejo, la Inteligencia Artificial tiene como objetivo construir modelos computacionales que al ejecutarse resuelvan tareas con resultados similares a los obtenidos por una persona, por lo que el tema central de esta disciplina es el estudio del conocimiento y su manejo; y según Buchanan y Shortliffe, la Representación del Conocimiento en un programa de Inteligencia Artificial significa elegir una serie de convenciones para describir objetos, relaciones, y procesos en el mundo. Gran parte del esfuerzo realizado en la consecución de ordenadores inteligentes, según Rahael, ha sido caracterizado por el intento continuo de conseguir más y mejores estructuras de representación del conocimiento, junto con técnicas adecuadas para su manipulación, que permiten la resolución inteligente de algunos de los problemas ya planteados. Otra característica importante es la inclusión en los programas de Inteligencia artificial, aunque por separado, de los conocimientos y la unidad que controla y dirige la búsqueda de soluciones. Dada esta disposición, en estos programas la modificación, ampliación y actualización de los mismos es sencilla. 


El razonamiento que puede tener cualquier persona, ha demostrado ser una de los aspectos más difíciles de modelar «dentro» de un ordenador. El sentido común a menudo nos ayuda a prever multitud de hechos y fenómenos corrientes, pero, como ya hemos dicho, es muy complicado representarlos en un ordenador, dado que los razonamientos son casi siempre inexactos y que sus conclusiones y reglas en las que se basan solamente son aproximadamente verdaderas.

Lenguajes, entornos y herramientas de Inteligencia Artificial:

 En la Inteligencia Artificial, se han desarrollado diferentes lenguajes específicos para los diferentes campos de aplicación. Estos lenguajes en su mayoría cuentan con una serie de características comunes que podemos resumir de la siguiente forma: Este tipo de software ofrece una gran modularidad. Poseen gran capacidad de tomar decisiones de programación hasta el último momento, es decir cuando el programa ya está ejecutándose. Ofrecen grandes facilidades en el manejo de listas, y esto es importante, ya que las listas son la estructura más habitual usada para la representación del conocimiento en la Inteligencia Artificial. Facilitan la realización de ciertos tipos de deducción automática permitiendo también la creación de una base de hechos (lugar donde se recogen los datos iniciales del problema a resolver y los resultados intermedios una vez obtenidos). Permite el uso simultáneo de estructuras que incorporan conocimiento declarativo y conocimiento procedimental. Tienen una marcada orientación gráfica. Además, las herramientas de Inteligencia Artificial permiten hacer un seguimiento de todos los cambios realizados a lo largo de toda la sesión. Disponen herramientas capaces de desarrollar programas que son capaces de comprender otros programas y también de realizar modificaciones sobre ellos.

Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:8

  • Sistemas que piensan como humanos:Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la toma de decisiones, resolución de problemas y aprendizaje.

  • Sistemas que actúan como humanos:Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor.

  • Sistemas que piensan racionalmente:Es decir, con lógica (idealmente), tratan de imitar el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibir, razonar y actuar.

  • Sistemas que actúan racionalmente (idealmente):Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes inteligentes. Está relacionado con conductas inteligentes en artefactos.



Redes Neuronales

Una red neuronal es un modelo simplificado que emula el modo en que el cerebro humano procesa la información: Funciona simultaneando un número elevado de unidades de procesamiento interconectadas que parecen versiones abstractas de neuronas.



Las unidades de procesamiento se organizan en capas. Hay tres partes normalmente en una red neuronal : Una capa de entrada, con unidades que representan los campos de entrada; Una o varias capas ocultas; y Una capa de salida, con una unidad o unidades que representa el campo o los campos de destino. 



En cada una de las capas se pueden llevar a cabo las siguientes funciones:

Función de entrada:Se calcula a partir del vector entrada, como se muestra a continuación:

Donde: * representa al operador apropiado (por ejemplo: máximo, sumatoria, productoria, etc.), n al número de entradas a la neurona Ni y wi al peso.



Sumatoria de las entradas pesadas: es la suma de todos los valores de entrada a la neurona, multiplicados por sus correspondientes pesos.






Productoria de las entradas pesadas: es el producto de todos los valores de entrada a la neurona, multiplicados por sus correspondientes pesos.


Máximo de las entradas pesadas: solamente toma en consideración el valor de entrada más fuerte, previamente multiplicado por su peso correspondiente.


Función de activación: Calcula el estado de actividad de una neurona; transformando la entrada global (menos el umbral, Θi) en un valor (estado) de activación, cuyo rango normalmente va de (0 a 1) o de (–1 a 1).

Tipos de Función de Activación

Sigmoid – Sigmoide

La función sigmoide transforma los valores introducidos a una escala (0,1), donde los valores altos
tienen de manera asintótica a 1 y los valores muy bajos tienden de manera asintótica a 0.


Características de la función sigmoide:
  • Satura y mata el gradiente.

  • Lenta convergencia.

  • No está centrada en el cero.

  • Está acotada entre 0 y 1.

  • Buen rendimiento en la última capa.



Tangente Hiperbólica:

La función tangente hiperbólica transforma los valores introducidos a una escala (-1,1), donde los valores altos tienen de manera asintótica a 1 y los valores muy bajos tienden de manera asintótica a -1.

Características de la función tangente hiperbólica:

  • Muy similar a la sigmoide

  • Satura y mata el gradiente.

  • Lenta convergencia.

  • Centrada en 0.

  • Está acotada entre -1 y 1.

  • Se utiliza para decidir entre uno opción y la contraria.

  • Buen desempeño en redes recurrentes.

ReLU – Rectified Lineal Unit



La función ReLU transforma los valores introducidos anulando los valores negativos y dejando los positivos tal y como entran.



Características de la función ReLU:

Activación Sparse – solo se activa si son positivos.
No está acotada.
Se pueden morir demasiadas neuronas.
Se comporta bien con imágenes.
Softmax – Rectified Lineal Unit

La función Softmax transforma las salidas a una representación en forma de probabilidades, de tal manera que el sumatorio de todas las probabilidades de las salidas de 1.

Características de la función Softmax:




  • Se utiliza cuando queremos tener una representación en forma de probabilidades.

  • Está acotada entre 0 y 1.

  • Muy diferenciable.

  • Se utiliza para para normalizar tipo multiclase.

  • Buen rendimiento en las últimas capas.



Función de salida:El último componente que una neurona necesita es la función de salida. El valor resultante de esta función es la salida de la neurona i (outi); por ende, la función de salida determina que valor se transfiere a las neuronas vinculadas.


Normalmente, no cualquier valor es permitido como una entrada para una neurona, por lo tanto, los valores de salida están comprendidos en el rango [0, 1] o [-1, 1]. También pueden ser binarios {0, 1} o {-1, 1}.  


Dos de las funciones de salida más comunes son: 









Las unidades se conectan con fuerzas de conexión variables (o ponderaciones). Los datos de entrada se presentan en la primera capa, y los valores se propagan desde cada neurona hasta cada neurona de la capa siguiente. al final, se envía un resultado desde la capa de salida. La red aprende examinando los registros individuales, generando una predicción para cada registro y realizando ajustes a las ponderaciones cuando realiza una predicción incorrecta. Este proceso se repite muchas veces y la red sigue mejorando sus predicciones hasta haber alcanzado uno o varios criterios de parada.



Teniendo en cuenta lo mencionado en cada una de las áreas de conocimiento (Big Data, Data Warehouse, Inteligencia Artificial, Redes Neuronales), podemos deducir que su relación es muy estrecha, puesto que para llegar a obtener un buen producto de Inteligencia Artificial se deben aplicar estas demás áreas.  Como se sabe, la IA reducirá la intervención y los trabajos humanos en general, por lo que la gente considera que la IA tiene todas las capacidades de aprendizaje automático y creará robots que se harán cargo de los trabajos humanos. 


El rol humano se reducirá debido a la expansión de la IA y este pensamiento se ha roto y cambiado por la participación de Big Data. Como las máquinas pueden tomar decisiones basándose en hechos, pero no pueden involucrar interacción emocional, pero debido a los grandes datos, los científicos de datos pueden involucrar a su inteligencia emocional y tomar las decisiones adecuadas de la manera correcta.  Para un científico de datos de cualquier organización farmacéutica, no sólo puede analizar las necesidades de los clientes, sino también inhibir las normas y regulaciones locales del mercado en particular de esa región. Dependiendo de las sales utilizadas en cualquier medicamento, pueden sugerir las mejores opciones para ese mercado, mientras que en caso de aprendizaje automático puede que no sea posible.


Por lo tanto, está claro que la combinación de AI y Big Data no solo puede involucrar el talento y el aprendizaje simultáneamente, sino que también da lugar a muchos nuevos conceptos y opciones para cualquier nueva marca y organización. Una combinación de AI y Big Data puede ayudar a las organizaciones a conocer el interés del cliente de la mejor manera. Al utilizar conceptos de aprendizaje automático, las organizaciones pueden identificar los intereses del cliente en el mínimo tiempo posible.


Las redes neuronales también son un complemento del área de Inteligencia Artificial, debido que allí es donde se llevan a cabo todos estos procesos que le permiten a la máquina procesar las solicitudes de los usuarios, conformando una red de redes neuronales artificiales, dichas redes cuentan con gran cantidad de semejanzas a las del cerebro. aprenden con la experiencia, generalizan nuevos casos basados en anteriores, obtener características de información irrelevante, etc. Por tanto los peticiones que realizan los usuarios a las máquinas, dan una mejor respuesta y cumplen satisfactoriamente las necesidades o actividades para las que son diseñadas dichas  dichas máquinas.

El concepto de Data Warehouse implica, obviamente, no sólo la reorganización, y puesta a disposición de los usuarios de los datos disponibles en la compañía, sino, sobre todo, su explotación para la toma de decisiones empresariales. Este proceso puede requerir la solución de problemas que se clasifican en los siguientes tipos:


  • Clasificación de casos:  Es la aplicación más extendida. Puede tratarse de una segmentación de clientes anteriores, con visitas a posteriores acciones de marketing sobre ello m o de un estudio de su comportamiento con vistas a poder predecir en el futuro cuál será el comportamiento de nuevos clientes.

  • Derivación de dependencias: Se trata de construir explicaciones causales a partir de un conjunto de datos (por ejemplo, siniestros de automóviles), con el fin de utilizar dichas explicaciones para la predicción (por ejemplo, del nivel de riesgo de nuevos solicitantes de seguros)

  • Detección de desviación: Se trata de identificar casos anómalos a partir de la experiencia anterior. Por ejemplo, revisión de facturas de usuarios utilities.

  • En todos los casos, al exponer al sistema a la información disponible en la compañía, lo que espera es que “responda” de esos datos acumulados, y que utilice el conocimiento aprendido en la resolución de nuevos problemas. Como veremos a continuación, sólo algunas de las tecnologías disponibles - inducción de reglas, generación de casos- hacen explícito - y    utilizable con otros propósitos- el conocimiento aprendido.

  •  Cualquiera que sea la solución de la base adoptada para el Data Warehousing (SGBD relacional, CMS, etc), el objetivo final consiste en alimentar el EIS con la información relevante para cada perfil de usuario, orientada a sus objetivos y a su modo de trabajo.

No hay comentarios:

Publicar un comentario