Profundizamos en el big data



Progresar la planificación de la fuerza de trabajo

el big data en RRHH pueden ayudar a organizar los diferentes tipos de datos que las compañías tienen sobre los empleados para que puedan ser utilizados de manera eficaz. el big data con el Procesamiento de Lenguaje Natural pueden ayudar a examinar la retroalimentación, las revisiones de proyectos y los datos de perfiles de talentos generalmente para edificar perfiles de habilidades de los empleados dentro de la organización en tiempo prácticamente real, que pueden ser usados como una herramienta para la planificación de la fuerza de trabajo, afirma Srikant Chellappa de Engagedly a Forbes.

Van Vulpen apunta que Natural Language Processing también puede examinar las revisiones del rendimiento empresarial para crear perfiles de competencias de los empleados o generar automáticamente puntuaciones de desempeño tanto para los empleados para los directivos.



Incremento de la objetividad en la toma de resoluciones

Los profesionales de los recursos humanos siempre han confiado en los instintos viscerales utilizando datos muy gráficos, mas tienen la posibilidad de tomar resoluciones más objetivas incorporando big data, afirma Jaclyn Lee, oficial jefe de recursos humanos de la Universidad de Tecnología y Diseño de Singapur, al Directivo de Recursos Humanos.

La idea es cambiar la mentalidad de uno que es reactivo a uno que es proactivo, afirma Lee. Eso puede incluir el aprendizaje de la depuración de datos y el análisis de datos, así como la forma de reconocer patrones en los datos.

Tener semejantes conocimientos de grandes análisis de datos e inteligencia artificial es aún más esencial, en tanto que con la tasa de desempleo siendo tan baja como es, el liderazgo de RRHH no tiene mucho margen para 'hacerlo bien', dice Rachel Lyubovitzky de EverythingBenefits a Forbes. Entender las tendencias más extensas de RRHH en múltiples organizaciones y poder aprovechar las experiencias compartidas permite a los empleadores tomar mejores resoluciones.


Actualizando el almacen de big data, ha llegado el instante

En el espacio de la tecnología y el análisis de datos, me recuerdan de manera continua que la única incesante es el cambio. A esta industria le chifla crear. Una y otra vez renovamos para superar los desafíos inmediatos y futuros - con soluciones que abordan la necesidad de más datos, análisis más rápidos y una mejor arquitectura.

La innovación acostumbra a seguir una trayectoria de algo innovador, seguida de años de mejoras incrementales que maduran la oferta y la hacen aplicable a las masas. Si bien estos cambios incrementales son por norma general simples de añadir, el inconveniente es que primero debemos incorporar la innovación renovadora. Esta transición generalmente requiere cambios en los procesos, formación, re-estructuración y una larga y dolorosa migración. En última instancia, esto conduce a los ciclos de exageración tecnológica, en los que las empresas valoran individualmente en qué momento o bien incluso si el riesgo y la lucha por hacer un cambio vale la pena.


4 grandes desarrollos tecnológicos

Cuatro desarrollos tecnológicos indispensables afectan al gran acervo de información de las compañías de hoy en día:

La contenedorización y los kubernetes son un cambio en el juego. 
Los contenedores (y la orquestación de los kubernetes) pueden ofrecer muchos beneficios para los grandes ambientes de datos. Con los contenedores, puede separar la computación del almacenaje. Esta capacidad le permite dimensionar adecuadamente su solución, impulsar una mayor eficacia y optimizar la utilización de su PC. Los contenedores también le dejan abarcar el ecosistema en constante evolución de las herramientas de código abierto, lo que deja a los analistas y científicos de datos crear sus herramientas preferidas en cuestión de minutos, a la vez que consiguen acceso a los datos que necesitan. Además de esto, se obtiene portabilidad, flexibilidad y agilidad de las aplicaciones, lo que quiere decir que se pueden desplegar rápida y de forma fácil aplicaciones de datos intensivos en las instalaciones o en cualquier nube.
Los datos están en todas partes - en prem, nube híbrida, multi-nube, y en el borde.
Originalmente, el gran conjunto de datos de la mayoría de las empresas estaba plantado de manera firme en las instalaciones. Mas se están desplegando más aplicaciones en la nube pública y con frecuencia en múltiples nubes públicas. Y con el volumen cada vez mayor de datos generados en el borde (junto con las mejoras en la red), es necesario pensar en los datos de forma global - desde el borde hasta la nube. Su próxima gran plataforma de datos debe amoldarse a las necesidades de su negocio y a los datos de todas y cada contenido de utilidad una partes. Y debe ser flexible para amoldarse a las instalaciones, a la nube híbrida, a la multi-nube y a los despliegues de computación en el borde.
El ecosistema de código abierto prosigue evolucionando.
Las empresas precisan probar sus grandes inversiones en datos a futuro. Con el tiempo, algunos proveedores se han centrado en el modelo de código abierto puro. Otros han proporcionado software comercial de valor añadido basado en la tecnología de código abierto. Resulta que ambos enfoques son correctos. Usted va a querer herramientas optimados de su proveedor de soluciones cuando tenga sentido, pero su porvenir gran acervo de datos asimismo necesita evolucionar con la velocidad de la innovación de código abierto. Al implementar una solución con la capacidad de desplegar cualquier marco de trabajo de código abierto, usted está dispuesto para esta constante evolución, al tiempo que da a sus científicos de datos acceso a los últimos conjuntos de herramientas de código abierto.
Hacer invisible la infraestructura - mientras que se garantiza el rendimiento, la resistencia, la seguridad y la alta disponibilidad. 
Recuerdo un comentario que un CTO me hizo hace múltiples años. Al discutir un punto sobre de qué manera mejorar el rendimiento de los lagos de datos, dijo: A ustedes les importa la infraestructura; a nosotros no nos importa la infraestructura. Desde ese momento he abrazado este mantra (tras todo, los equipos de ciencias de los datos no desean tener que preocuparse por el almacenaje subyacente, la computación y las redes), mas la infraestructura prosigue siendo esencial. Podemos ocultar la complejidad de la infraestructura, haciendo que la implementación de las aplicaciones sea tan fácil y tan perfecta como resulte posible. Mas si no diseña su solución para asegurar la seguridad, el desempeño y otros requisitos de nivel empresarial, no va a poder entrar en producción. Y, en último término, no proporcionará valor empresarial.




Hewlett Packard Enterprise puede asistir

Hewlett Packard Enterprise (HPE) sabe de primera mano que las organizaciones empresariales - y sus aplicaciones críticas para el negocio y de uso intensivo de datos - están atrapadas en esta tormenta de inseguridad y cambio. Últimamente hemos emprendido nuestro propio viaje de modernización para cumplir con nuestra visión de un negocio basado en datos. Nuestra nueva solución flexible de análisis de datos aprovecha los contenedores, el hardware más reciente y los conjuntos de herramientas de código abierto para aportar velocidad y agilidad a nuestra toma de decisiones y fortalecer a nuestros usuarios de todo el mundo desde el borde hasta la nube.

Desafortunadamente, no hay un botón fácil, ya que cada organización tiene sus propios requisitos. Mas HPE puede asistir a los clientes a navegar por este proceso. HPE tiene un completo portafolio de soluciones, experiencia y soporte para ayudar a modernizar su gran acervo de datos.

Para reducir el riesgo del proceso de modernización, creamos el Programa de Evaluación de AMP de HPE para ayudar a los clientes del servicio a responder a las preguntas difíciles sobre su gran acervo de información de datos. Con este ofrecimiento, HPE hará: Examinar su plataforma de estado actual, suministrar un mapa detallado para modernizar su plataforma actual de una manera que satisfaga las necesidades de negocios de su organización, y por último, prescribir un plan sistemático para llegar allá. Y a resultas de la Evaluación AMP, HPE puede aprovechar su arsenal de software de HPE Ezmeral, hardware de clase mundial y servicios probados para ofrecer la solución adecuada a sus necesidades específicas.



Certificaciones en ciencias de la información para mejorar tu currículo y tu sueldo.

A fines de agosto, Glassdoor tenía más de cincuenta y tres ofertas de empleo que mentaban el aprendizaje automático (ML) y veinte trabajos que incluían la ciencia de los datos con sueldos que iban de 50.000 a más de 180.000 dólares americanos. Cada vez más empresas están haciendo del análisis de datos y del aprendizaje automático un factor central del desarrollo de nuevos productos y de las ocasiones de ingresos futuros.

Las grandes empresas de tecnología, como las organizaciones tecnológicas independientes, ofrecen programas de formación para personas que son nuevas en la ciencia de los datos, de esta forma como para profesionales que desean dominar la tecnología más reciente. Cada programa de esta lista de los mejores cursos online para la ciencia de los datos ampliará su experiencia y agregará un valioso elemento de línea en forma de certificación de ciencia de los datos a su currículo.


Ingeniero profesional de aprendizaje automático de Google

Si puedes pasar este examen que está en versión beta, eres certificado por Google Cloud. Google aconseja que los examinandos tengan por lo menos 3 años de experiencia práctica con los productos y soluciones de Google Cloud.

El examen dura cuatro horas y cuesta 120 dólares estadounidenses. Las seis secciones del examen cubren:

Enmarcar el problema del ML
Arquitectura de la solución ML
Preparación y procesamiento de datos
Desarrollo del modelo de ML
Automatización y orquestación del oleoducto de ML
Monitoreo, optimización y mantenimiento de la solución de ML




Mesa de especialista de escritorio

El análisis de datos es inútil a menos que motive la acción. Eso frecuentemente requiere hacer un caso basado en este análisis y presentarlo a los colegas de otros departamentos. Visualizar los datos en lugar de confiar sólo en los números puede asistir a ganarse a las personas que no tratan con datos diariamente. Tableau puede asistirte a hacer eso.

El certificado de Especialista en Escritorio de Tableau mostrará que tiene una entendimiento básica de esta herramienta de visualización de datos. La compañía sugiere que los examinadores tengan al menos tres meses de experiencia con la plataforma. El programa de preparación para el examen de Especialista en Escritorio Tableau es un programa de 6 semanas de adiestramiento interactivo, lecciones y hasta 2 intentos para el examen de certificación.

El examen tiene treinta preguntas y debe ser completado en sesenta minutos. Los examinandos deben conseguir un 70 por ciento para aprobar. El examen mide estas habilidades:

Crear y guardar conexiones de datos
La administración de las propiedades de los datos
Creando gráficos básicos
Aplicar el análisis a una hoja de trabajo
Crear y modificar un tablero de mandos
Entendimiento de las dimensiones y medidas
Dominar los campos reservados y continuos

Leave a Reply

Your email address will not be published. Required fields are marked *