- Presentación
- Temario
- Claustro
- Metodología
- Titulación
Descripción
Actualmente, con la explotación de los recursos digitales, las tecnologías IOT y el auge de las TICS, se mueven por internet una ingente cantidad de datos. Cuando hablamos de Big Data no solo nos referimos a la recopilación de información, sino a algo mucho más importante, a su análisis y cruzado. En este Master Oficial en Big data aprenderás a manejar y sacar el máximo partido a los datos que se generan en todo tipo de plataformas online, infórmate y empieza ahora tu carrera de mago digital.
¿Quién puede acceder al master?
El Máster de Big Data puede aplicarse a muchos sectores y perfiles, por lo que es ideal para aquellas personas que quieran conocer en qué consiste el Big Data, como pueden aplicarlo en distintos ámbitos con el objetivo de mejorar su carrera profesional y con qué herramientas se puede llevar a cabo dichos análisis de procesamiento de grandes volúmenes de datos.
Objetivos
- Los principales objetivos de este Máster Oficial Universitario en Big Data son:
- Aprender los principios del Big Data y el desarrollo de las fases de un proyecto de Big Data.
- Conocer las herramientas existentes y su uso para analizar y explotar datos masivos.
- Explotar datos y visualizar resultados a través de técnica de Data Science.
- Comprender y utilizar la programación estadística con R y Python.
- Conocer en qué consiste el Data Mining y aplicarlo correctamente.
- Saber utilizar las analíticas web para Big Data y aplicarlas mediante Google Analytics
- Aplicar los conocimientos de Big Data para el Cloud Computing con Linux y Azure
Salidas Profesionales
Gracias a este Máster Oficial Universitario de Big Data el alumno podrá trabajar en diversos puestos dentro del sector, como:
Temario
- ¿Qué es Big Data?
- La era de las grandes cantidades de información. Historia del big data
- La importancia de almacenar y extraer información
- Big Data enfocado a los negocios
- Open Data
- Información pública
- IoT (Internet of Things-Internet de las cosas)
- Definición y relevancia de la selección de las fuentes de datos
- Naturaleza de las fuentes de datos Big Data
- Definición, Beneficios y Características
- Ejemplo de uso de Open Data
- Diagnóstico inicial
- Diseño del proyecto
- Proceso de implementación
- Monitorización y control del proyecto
- Responsable y recursos disponibles
- Calendarización
- Alcance y valoración económica del proyecto
- Definiendo el concepto de Business Intelligence y sociedad de la información
- Arquitectura de una solución de Business Intelligence
- Business Intelligence en los departamentos de la empresa
- Conceptos de Plan Director, Plan Estratégico y Plan de Operativa Anual
- Sistemas operacionales y Procesos ETL en un sistema de BI
- Ventajas y Factores de Riesgos del Business Intelligence
- Cuadros de Mando Integrales (CMI)
- Sistemas de Soporte a la Decisión (DSS)
- Sistemas de Información Ejecutiva (EIS)
- Apoyo del Big Data en el proceso de toma de decisiones
- Toma de decisiones operativas
- Marketing estratégico y Big Data
- Nuevas tendencias en management
- Concepto de web semántica
- Linked Data Vs Big Data
- Lenguaje de consulta SPARQL
- Contexto Internet de las Cosas (IoT)
- ¿Qué es IoT?
- Elementos que componen el ecosistema IoT
- Arquitectura IoT
- Dispositivos y elementos empleados
- Ejemplos de uso
- Retos y líneas de trabajo futuras
- Hadoop
- Pig
- Hive
- Sqoop
- Flume
- Spark Core
- Spark 2.0
- Fundamentos de Streaming Processing
- Spark Streaming
- Kafka
- Pulsar y Apache Apex
- Implementación de un sistema real-time
- Hbase
- Cassandra
- MongoDB
- NeoJ
- Redis
- Berkeley DB
- Lucene + Solr
- Arquitectura Lambda
- Arquitectura Kappa
- Apache Flink e implementaciones prácticas
- Druid
- ElasticSearch
- Logstash
- Kibana
- Amazon Web Services
- Google Cloud Platform
- Administración e Instalación de clusters: Cloudera y Hortonworks
- Optimización y monitorización de servicios
- Seguridad: Apache Knox, Ranger y Sentry
- Herramientas de visualización: Tableau y CartoDB
- Librerías de Visualización: D, Leaflet, Cytoscape
- Introducción a la minería de datos y el aprendizaje automático
- Proceso KDD
- Modelos y Técnicas de Data Mining
- Áreas de aplicación
- Minería de textos y Web Mining
- Data mining y marketing
- Aproximación al concepto de DataMart
- Bases de datos OLTP
- Bases de Datos OLAP
- MOLAP, ROLAP & HOLAP
- Herramientas para el desarrollo de cubos OLAP
- Visión General. ¿Por qué DataWarehouse?
- Estructura y Construcción
- Fases de implantación
- Características
- Data Warehouse en la nube
- Tipos de herramientas para BI
- Productos comerciales para BI
- Productos Open Source para BI
- Beneficios de las herramientas de BI
- 1. Business Intelligence en Excel
- Herramienta Powerbi
- Herramienta Tableau
- Instalación y arquitectura
- Carga de datos
- Informes
- Transformación y modelo de datos
- Análisis de datos
- ¿Qué es una base de datos NoSQL?
- Bases de datos Relaciones Vs Bases de datos NoSQL
- Tipo de Bases de datos NoSQL. Teorema de CAP
- Sistemas de Bases de datos NoSQL
- ¿Qué es MongoDB?
- Funcionamiento y uso de MongoDB
- Primeros pasos con MongoDB. Instalación y shell de comandos
- Creando nuestra primera Base de Datos NoSQL.Modelo e Inserción de Datos
- Actualización de datos en MongoDB. Sentencias set y update
- Trabajando con índices en MongoDB para optimización de datos
- Consulta de datos en MongoDB
- ¿Qué es Hadoop?
- El sistema de archivos HDFS
- Algunos comandos de referencia
- Procesamiento MapReduce con Hadoop
- El concepto de los clusters en Hadoop
- ¿Qué es Weka?
- Técnicas de Data Mining en Weka
- Interfaces de Weka
- Selección de atributos
- Una aproximación a Pentaho
- Soluciones que ofrece Pentaho
- MongoDB & Pentaho
- Hadoop & Pentaho
- Weka & Pentaho
- Introducción a Python
- ¿Qué necesitas?
- Librerías para el análisis de datos en Python
- MongoDB, Hadoop y Python. Dream Team del Big Data
- Introducción a R
- ¿Qué necesitas?
- Tipos de datos
- Estadística Descriptiva y Predictiva con R
- Integración de R en Hadoop
- ¿Qué es la ciencia de datos?
- Herramientas necesarias para el científico de datos
- Data Science & Cloud Compunting
- Aspectos legales en Protección de Datos
- Introducción
- El modelo relacional
- Lenguaje de consulta SQL
- MySQL. Una base de datos relacional
- Obtención y limpieza de los datos (ETL)
- Inferencia estadística
- Modelos de regresión
- Pruebas de hipótesis
- Inteligencia Analítica de negocios
- La teoría de grafos y el análisis de redes sociales
- Presentación de resultados
- Introducción a la inteligencia artificial
- Historia
- La importancia de la IA
- Tipos de inteligencia artificial
- Algoritmos aplicados a la inteligencia artificial
- Relación entre inteligencia artificial y big data
- IA y Big Data combinados
- El papel del Big Data en IA
- Tecnologías de IA que se están utilizando con Big Data
- Sistemas expertos
- Estructura de un sistema experto
- Inferencia: Tipos
- Fases de construcción de un sistema
- Rendimiento y mejoras
- Dominios de aplicación
- Creación de un sistema experto en C#
- Añadir incertidumbre y probabilidades
- Futuro de la inteligencia artificial
- Impacto de la IA en la industria
- El impacto económico y social global de la IA y su futuro
- Introducción
- Clasificación de algoritmos de aprendizaje automático
- Ejemplos de aprendizaje automático
- Diferencias entre el aprendizaje automático y el aprendizaje profundo
- Tipos de algoritmos de aprendizaje automático
- El futuro del aprendizaje automático
- Introducción
- Algoritmos
- Introducción
- Filtrado colaborativo
- Clusterización
- Sistemas de recomendación híbridos
- Clasificadores
- Algoritmos
- Componentes
- Aprendizaje
- Introducción
- El proceso de paso de DSS a IDSS
- Casos de aplicación
- Aprendizaje profundo
- Entorno de Deep Learning con Python
- Aprendizaje automático y profundo
- Redes neuronales
- Redes profundas y redes poco profundas
- Perceptrón de una capa y multicapa
- Ejemplo de perceptrón
- Tipos de redes profundas
- Trabajar con TensorFlow y Python
- Entrada y salida de datos
- Entrenar una red neuronal
- Gráficos computacionales
- Implementación de una red profunda
- El algoritmo de propagación directa
- Redes neuronales profundas multicapa
- La sociedad de la información
- Diseño, desarrollo e implantación
- Factores de éxito en la seguridad de la información
- Seguridad a Nivel Físico
- Seguridad a Nivel de Enlace
- Seguridad a Nivel de Red
- Seguridad a Nivel de Transporte
- Seguridad a Nivel de Aplicación
- Concepto de seguridad TIC
- Tipos de seguridad TIC
- Aplicaciones seguras en Cloud
- Plataformas de administración de la movilidad empresarial (EMM)
- Redes WiFi seguras
- Caso de uso: Seguridad TIC en un sistema de gestión documental
- Buenas prácticas de seguridad móvil
- Protección de ataques en entornos de red móv
- Inteligencia Artificial
- Tipos de inteligencia artificial
- Impacto de la Inteligencia Artificial en la ciberseguridad
- Contexto Internet de las Cosas (IoT)
- ¿Qué es IoT?
- Elementos que componen el ecosistema IoT
- Arquitectura IoT
- Dispositivos y elementos empleados
- Ejemplos de uso
- Retos y líneas de trabajo futuras
- Vulnerabilidades de IoT
- Necesidades de seguridad específicas de IoT
- Industria 4.0
- Necesidades en ciberseguridad en la Industria 4.0
¿Con quién vas a aprender? Conoce al claustro
Juan Antonio Cortés Ibáñez
Graduado en Ingeniería Informática por la UGR con Máster Universitario Oficial en Ciencia de Datos e Ingeniería de Computadores por la UGR. Doctorando en Tecnologías de la Información por la UGR. Cuenta con amplia experiencia como Científico de datos en el Repsol Technology Lab y en el sector de la docencia.
Rafael Marín
Ingeniero técnico en Informática de Sistemas por la Universidad de Granada (UGR), con un Curso Superior en Ciberseguridad, Business Intelligence y Big Data. Apasionado de la informática y de las nuevas tecnologías, cuenta con 10 años de experiencia y vocación en el ámbito TIC y la programación de software. Experto en Desarrollo web, Programación de aplicaciones, Análisis de datos, Big Data, Ciberseguridad y Diseño y experiencia de usuario (UX/UI).
Bibiana Moreno Leyva
CEO de EducaLMS, proyecto de innovación educativa. Técnica superior en Desarrollo de Aplicaciones Informáticas. Cuenta con más de seis años de experiencia profesional en la coordinación de análisis de aplicaciones multiplataforma y cinco años en desarrollo de aplicaciones web con distintas infraestructuras.
Metodología
EDUCA LXP se basa en 6 pilares
Titulación
Doble Titulación: - Título Oficial de Master Oficial Universitario en Big Data expedida por la Universidad e-Campus acreditado con 60 ECTS Universitarios. Su superación dará derecho a la obtención del correspondiente Título Oficial de Máster, el cual puede habilitar para la realización de la Tesis Doctoral y obtención del título de Doctor/a. - Titulación de Master en Big Data con 1500 horas expedida por EUROINNOVA INTERNATIONAL ONLINE EDUCATION, miembro de la AEEN (Asociación Española de Escuelas de Negocios) y reconocido con la excelencia académica en educación online por QS World University Rankings
Explora nuestras Áreas Formativas
Construye tu carrera profesional
Descubre nuestro amplio Catálogo Formativo, incluye programas de Cursos Superior, Expertos, Master Profesionales y Master Universitarios en las diferentes Áreas Formativas para impulsar tu carrera profesional.
Master Oficial Universitario en Big Data + 60 Créditos ECTS