Chipotle Mexican Grill – Business Intelligence

Chipotle Mexican Grill es una cadena de restaurantes famosa, la cual fue fundada por Steve Ells en 1993 en Denver, es reconocida por ser una de las primeras empresas en aplicar el modelo de locales de comida rápida. Esta empresa se dedica principalmente a la venta de comida mexicana como burritos, tacos, fajitas, quesadillas y otros productos similares. Chipotle Mexican Gril aprovechò la fama que tiene la comida mexicana en  todo el mundo para promocionar su cadena de restaurantes la cual cuenta con locales ubicados en EEUU, Canadá y en Europa, además tiene como eslogan el uso de ingredientes orgánicos en todos los alimentos que ofrecen  y también priorizan el cuidado del medio ambiental, utilizando productos renovables.

El origen de Chipotle Mexican Grill comienza cuando Steve Ells tiene la idea de montar su propio negocio de comida, dicho proyecto tuvo el apoyo por sus  padres los cuales le dieron un capital de 85 mil dólares para poder empezar. Steven inicio con el proyecto de su restaurante comprando un local cerca de la Universidad de Denver, el éxito que tuvo fue casi inmediato consiguiendo superar su meta de vender más de 1000 burritos diarios. Además, gracias a su éxito inmediato Steven logra abrir un segundo local en 1995, pero uno de los mayores cambios que tuvo fue en 1998 cuando la empresa de McDonald’s decidió invertir en Chipotle Mexican Grill comparando una pequeña cantidad de las acciones de la empresa lo que influyo en el crecimiento de la misma, pero McDonald’s al ver el gran éxito que tuvo la cadena, decidió ampliar su participación en la misma comprando el 90% de la empresa y para el 2003 la empresa ya disponía de 300 locales distribuidos en Estados Unidos.

Chipotle Mexican Grill después de vivir bajo la sombra de McDonald’s durante ocho años, decido separarse definitivamente de la misma, pero gracias a la fama que consiguió durante todo ese tiempo, fue rápidamente aceptado en el mercado de la comida rápido. Después de su independización la empresa sufrió grande cambias tanto en la parte administrativa como en sus productos. La empresa comenzó con una nueva campaña llamada “comida con integridad” la cual proponía que todo sus productos usaban productos orgánicos para cuidar la salud de sus clientes, mientras que en la parte administrativa decidió implementar estrategias como Business intelligence.

Después de su separación con McDonald’s, la empresa decidió implementar una nueva campaña publicitaria llamada “comida con integridad”, esto con el fin de recuperar la confianza de sus clientes y cambiar la mala imagen que se tiene sobre la comida rápida. Esta campaña consisten en cambiar todos los ingredientes de sus productos por ingredientes orgánicos para así fomentar la alimentación saludable, he incluso para poder llegar a nuevos segmentos del mercado, su objetivo era llegar clientes que se preocupan por su salud y les interesa tener una la alimentación saludable, también implementaron mejoras en sus instalaciones, implementando la opción de comer sus productos dentro de los locales y la opción de pedir para llevar.

De igual manera, gracias a la influencia y experiencia que adquirió durante el tiempo que paso bajo el manto de McDonald’s, logro obtener tener acceso a los mejores sistemas de distribución de suministros, disponer de un gran número de clientes leales y conocimiento de las operaciones de crear los productos. A diferencia de sus competidores como Burger King que se enfocan en satisfacer las necesidades de las familias, Chipotle Mexican Grill tiene un segmento más grande la cual se encuentra entre personas  de 18 a 49 años, esto se debe también gracias a la arquitectura y el diseño de los interiores de sus locales ya que poseen una estética moderna y urbana.

Después de su separación de McDonald’s,Chipotle Mexican Grill toma la decisión de implementar Business intelligence, el cual consistes en el análisis de datos para tomar decisiones estrategias que ayudan al crecimiento e innovación de la empresa como añadir o quitar nuevos productos del menú y también en saber qué locales se deben cerrar.  Una de las herramientas que implemento fue “MicroStrategy” el cual es una compañía de software de Business intelligence el cual ofrece servicios como análisis de datos, informes de rendimiento, tendencia de ventas diarias, y el impacto que tienen campañas publicitarias de la empresa. MicroStrategy es herramienta es muy útil para conseguir información importante de la empresa de manera fácil y rápida, lo que ayuda a identificar la procesos ineficiencia durante las operaciones diarias, los datos recolectados pueden utilizar para obtener mejores resultados.

Otra herramienta que implementaron es Tableau, la cual también es un sistema de análisis de datos más moderno con una gran capacidad de recopilar y analizar enormes cantidades de datos. Tableau estuvo en un periodo de prueba durante 3 meses, los líderes de la empresa al ver su gran utilidad que  tenía esta herramienta la adoptaron rápidamente sustituyendo a “MicroStrategy” y así eliminando cientos informes en Excel innecesarios. Gracias a la gran velocidad que tiene Tableau para entregar los informes operativos, ayuda a los líderes a establecer proyecto estratégicos dependiendo de los resultados obtenidos. Al adoptar esta herramienta los beneficios se notaron inmediatamente, ya que el personal ahorro miles de dólares en un poco meses ya que ahora pueden acceder y compartir información de manera fácil y rápida. Chipotle está desarrollando  mejoras constantes a su marca para poder tener una gran ventaja que la diferencia de su competencia.

En conclusión, Chipotle fue acogido rápidamente en el mercado de comida rápida, principalmente porque sus productos se basan en ingredientes orgánicos y su gran responsabilidad ambiental. McDonald’s ayudo considerablemente en el crecimiento de la cadena, pero al independizarse Chipotle tomo las decisiones correctas para continuar creciendo, implementado una cultura basada en el análisis de datos para desarrollar mejoras en la empresa tanto en la producción como en la administración de esta. Esto se convierte en una gran ventaja ya que Chipotle cuenta con más de 2400 locales, por lo que se vuelve indispensable mantener la eficiencia operativa de todos los locales y para esto se necesita recolectar y analizar enormes cantidades de datos.

Bibliografías

Calvo, M. (6 de octubre de 2020). Business Intelligence: ¿Por qué lo necesitas en tu empresa?. Emburse Captio. https://www.captio.net/blog/algunos-ejemplos-practicos-de-uso-de-business-intelligence#captio

Chipotle Mexican Grill. (2021), Sustainability. https://www.chipotle.com/about-us/sustainability

MicroStrategy Incorporated. (21 de agosto de 2012). Chipotle elige a MicroStrategy como su solución de inteligencia empresarial empresarial. CISION PR Newswire. https://www.prnewswire.com/news-releases/chipotle-selects-microstrategy-as-its-enterprise-business-intelligence-solution-166871346.html

Tableau. (2021). Chipotle crea una vista unificada de las operaciones en 2400 restaurantes y ahorra 10 000 horas por mes. Tableau. https://www.tableau.com/es-es/solutions/customer/chipotle-creates-unified-view-operations-across-2400-restaurants-saving-10000

El éxito de ZARA

Zara es una empresa del grupo Inditex que cuenta con una de las cadenas más grandes del mundo. Zara es una de las empresas de ropa y moda más grande y conocidas alrededor del mundo textil y del mundo, además de ser una de las empresas que más comercializa y vende a través de sus paginas web y sus miles de tiendas por todo el mundo, por sus métodos innovadores, los cuales le han traído un gran éxito. Zara cuenta con más de 2000 tiendas alrededor de 86 países donde vende y comercializa ropa de moda de diferentes materiales como, algodón, poli algodón, polyester, nylon, etc. Además, que una gran parte de sus prendas maquilan en varios países donde la mano de obra es barata y las distribuye por países seleccionados estratégicamente.

         Zara comenzó como una empresa española, creada por Amancio Ortega y su esposa el 24 de mayo de 1974 en la ciudad de Coruña en España.  El nombre de la tienda inicialmente no se llamaba Zara, empezó con el nombre de Zorba, la cual se basó en una película clásica de ese entonces, pero al enterarse de locales llamados con el mismo nombre lo cambiaron al nombre que conocemos hoy. El éxito de Zara comenzó tempranamente ya que, impuso una estrategia, la cual era vender productos que se asimilaban a las marcas de ropa de alta gama, y lo que hacía era venderlas a un menor precio. La década de los 80, Amancio Ortega cambio las reglas de juego creando lo que popularmente se llama como “moda instantánea”, en lo que básicamente era crear colecciones de ropa que no se repitan y sacarlas cada semana. En el año de 1988 comenzó su primera tienda fuera de España, en la ciudad de Oporto en el país de Portugal. Poco a poco fue expandiendo más y más su mercado gracias a su novedosa estrategia. Y, por último, en 2010, Zara creo y lanzo su página web en varios países de Europa donde se podría adquirir sus prendas por el internet y al igualmente que sus tiendas físicas, empezó a comercializar en más países de poco a poco, hasta que en el 2015 era consideras como una de las mejores marcas del mundo.

         Zara hoy en día ha alcanzado el éxito mundial, y es reconocido mundialmente por casi todo el mundo, pero este éxito se debió a varios factores y estrategias de marketing, como de logística, para que hoy en día sea lo que es Zara, como el grupo Inditex. Las estrategias que se propuso Zara fueron primeramente en el uso del tiempo y de brindar un mejor servicio y diferente. Zara es una de las empresas que más invierte en tecnología, logística y transporte, por lo que es una clave esencial detrás de su éxito. Debido a esto han podido diferenciarse de los demás, como en su inicio con la que es la moda rápida, además de nuevas tecnologías, como es el Big data en el uso de RFID, o servicios de pagos que sean más sencillos para la clientela como “checkout”, o “Inwallet” e incorporar cientos de páginas web para casi cada local físico que existe y una página web general para el país en el cual se encuentre.

         La moda rápida dentro de Zara fue uno de los grandes inicios que le dio a la marca. Fue el análisis que tuvo la empresa en sus inicios que los hizo darse cuenta de que, al tener una mayor rotación de colecciones, provocaría que la gente se atraiga a que compre más productos de la marca en un corto plazo de periodo, esto lo logro al obtener una base datos donde puedan detectar las diferentes tendencias del momento. Al incorporar una moda rabiosa, básicos de moda y además de básicos simples haría que la gente compre inmediatamente. Anteriormente se basaban en una colección de alrededor de 3 meses y lo cambiaron a 1 semana, gracias a su tecnología en transporte y logística. Zara gracias a su análisis ha ido incorporando nuevas estrategias de marketing, empezando por la ropa barata, después con el implemento de la ropa rápida, “fast fashion”, y posteriormente con la moda flexible.

            Mediante un análisis en los años 2010, Zara pudo darse cuenta sobre la popularidad del internet. Por lo que apareció la anteriormente dicho, que se le conoce como moda flexible, lo cual se basa en la omnicanalidad, en el caso de Zara se basa en la venta de sus productos mediante las diferentes plataformas digitales y tiendas físicas. Zara cuenta con varias paginas web y plataformas digitales para los diferentes países y en algunos casos para las diferentes tiendas de un mismo país. Zara como lo hacía anteriormente, se basa en el análisis de datos, donde pudo ver las tendencias de cada país, o detectar nuevas tendencias para desarrollar las prendas y enviarlas lo más rápido a las tiendas de los diferentes países. Además, usan el análisis de datos para tomar decisiones en cuestiones de que maquilador transporta la mercancía a la tienda más conveniente, por un uso de opiniones, o de cuestiones de inventario.

            Los métodos que desarrollo Zara para su big data, fueron el uso de tecnología RFID, la cual es básicamente un sistema de almacenamiento y recuperación de datos mediante etiquetas, o como lo realiza Zara mediante código de barras o tarjetas inteligentes que acompañan a los productos. Esta tecnología permite que la empresa puede observar cuanto tiempo una prenda puede estar en stock hasta su venta, además de recopilar datos como que tipo de prenda se vende más, al igual que la tela con la que se usa, y colores. Además, esta tecnología puede detectar cuento tiempo se espera hasta que un cargamento con la nueva colección llegue y así mejorar las rutas hacia las tiendas. Las desventajas de esta tecnologia vienen siendo cuando se trata de productos online, donde no se puede observar la experiencia del cliente con la prenda.

            Como se ha hablado, el tiempo es crucial para Zara por lo cual, siempre mediante un análisis de dato en la cuestión de tiempo, piensan en innovar para que la compra hacia el cliente se más rápida. Zara lanza alrededor de 12000 nuevos diseños cada año y tiene una política de no invertir mucho en publicidad de sus prendas, ya que su fuerte es la tienda física y que la gente vaya a su local a ver las nuevas prendas y así crear una experiencia, por lo que ha implementado servicios para que además su tiempo en el pago sea menos. Mediante análisis de datos pudieron observar que el tiempo de cobra era muy largo por lo que se invirtió en sistemas como el checkout, el cual consiste en el que el cliente hace su pago mediante Inwallet una aplicación para pagar mediante el celular, igual creada por Inditex o sistemas de pagos sin dinero físico, y mientras el cliente realiza su pago, el empleado realiza el “packaging” del producto. Además de incentivar mediante realidad aumentada, donde las personas pueden visitar los locales y ver las prendas posadas por modelos. Todo esto gracias a la inversión en tecnologia para su base de datos y un análisis profundos de la empresa.

Como conclusión se a podido observar que el grupo Inditex, como su marca estrella Zara han implementado varios millones de dólares en tecnologia, para su logística y así almacenar datos, para crear mejores estrategias de marketing e laborales. El tiempo ha sido la clave del éxito de esta empresa y por donde ha salido todas sus invenciones. Se ha podido observar además que en la actualidad es una de las marcas más grandes del mundo, y esto se debe a las aplicaciones que ha ido innovando a lo largo de su historia. Por lo que Zara es un gran ejemplo del uso de análisis de datos, para obtener un éxito rotundo y que aplicarlo en otra industria podría acabar con el mismo resultado.

REFERENCIAS:

ABC.com (2019). Zara cambia el concepto de «moda rápida» por el de «flexible». Retrieved 31 March 2021, from https://www.abc.es/economia/abci-zara-cambia-concepto-moda-rapida-flexible-201901110217_noticia.html?ref=https:%2F%2Fwww.google.com%2F

Blasco, J. (2015). Zara y su Análisis Estratégico [Ebook] (pp. 3-30). Universitas. Retrieved from http://dspace.umh.es/bitstream/11000/2272/6/TFG%20Blasco%20S%C3%A1nchez%2C%20Jos%C3%A9%20Javier.pdf.

Camaño, J. (2010). ANALISIS CASO ZARA. Retrieved 31 March 2021, from https://www.xing.com/communities/posts/analisis-caso-zara-1003329635

Ceupe (2021)¿Qué es el RFID?. Retrieved 31 March 2021, from https://www.ceupe.com/blog/que-es-el-rfid.html

Inditex.com. (2021). Retrieved 31 March 2021, from https://www.inditex.com/es/quienes-somos/conocenos#:~:text=Somos%20una%20de%20las%20mayores,Oysho%2C%20Zara%20Home%20y%20Uterq%C3%BCe.

¿De dónde viene la ropa que compras en Zara? (2021). Retrieved 31 March 2021, from https://www.elespanol.com/invertia/economia/20160222/104239851_0.html

→, V. (2021). Zara, la historia de la marca que revolucionó la moda | Tentulogo. Retrieved 31 March 2021, from https://tentulogo.com/zara-la-historia-de-la-marca-que-revoluciono-la-moda/

ES, F. (2021). Zara cumple 25 años de internacionalización con presencia en 86 países. Retrieved 31 March 2021, from https://es.fashionnetwork.com/news/zara-cumple-25-anos-de-internacionalizacion-con-presencia-en-86-paises,373643.html

Marco, J. (2018). Zara y la tecnología RFID: Un paso más allá de la venta online. Retrieved 31 March 2021, from https://blogs.imf-formacion.com/blog/logistica/logistica/zara-rfid-online/

Self, S. (2021). Una solución de auto-checkout para tiendas especializadas y mini-supermercados | El cliente y el personal de checkout trabajan conjuntamente para hacer del checkout una operación ágil y limpia. | DIGI Imsispal. Retrieved 31 March 2021, from https://www.digisystem.com/es/solutions/SOL00070/

PayPal, y la prevención de fraudes mediante el análisis de datos

PayPal es una empresa estadounidense que ofrece servicios digitales para realizar pagos y transferencias como intermediario entre personas y negocios en cualquier parte del mundo. Siempre y cuando la empresa tiene implementado el portal de pago de PayPal, los compradores en línea pueden elegir esta forma de pago seguro; así mismo puede transferir dinero a otros contactos. Se conoce que el beneficio de usar PayPal está en la facilidad y velocidad de realizar transacciones en línea; una vez registrado las tarjetas de crédito, con tan solo un click se procesa cualquier pago sin necesidad de esperar la verificación y el largo proceso de ingresar información una y otra vez. El trabajo de PayPal es garantizar seguridad y velocidad en términos de conveniencia al mismo tiempo para satisfacer a sus clientes de varios segmentos, así como usuarios del día a día, comerciantes pequeños hasta multinacionales. Este proceso lo hacen a través de un profundo análisis y entendimiento de sus consumidores. 

Apenas tiene dos décadas, fue fundada en 1998 en Mountain View, California, con el nombre “Confinity” por Peter Thiel y Max Levchin. Más tarde fusiona con X.com empresa de Elon Musk y cambia el nombre a PayPal. En los primeros tres años llegó a manejar más de $3 billones de pagos de 12.8 millones de usuarios individuales y negocios. En el año 2000 eBay empieza a aceptar pagos a través de PayPal. (PYMNTS, 2015) Su crecimiento se refleja en 2002 cuando transa en la bolsa de valores de Nueva York por primera vez, culminando el primer día con un poco más de $20 por acción y un 50% de crecimiento. A finales del mismo año, eBay anuncia su adquisición por un valor de $1.5 billones. Continúa siendo líder en el mercado, en 2006 pasa de 100 millones de usuarios y desarrolla PayPal Mobile; plataforma de transacciones desde el móvil. La relación de eBay y PayPal termina en 2015 con la separación de estas; la tecnológica de pagos en línea vuelve a ser empresa independiente cotizado en bolsa. En 2017 PayPal lanza su servicio de P2P Payment que básicamente permite a las personas generar un link para realizar cobros entre conocidos y pequeños comercios. En cuanto 2019, se expande al mercado de India, firma contrato con Facebook Marketplace y hace una inversión de $500 millones en Uber. (O’Connell, 2020)

Así como cualquier otro servicio financiero o identidad bancaria, PayPal siempre fue susceptible de ataques cibernéticos y fraudes que debilitan el sistema para resguardar la seguridad de los usuarios. Ha sido victima de hackers y estafadores que intentan entrar al sistema para robar datos personales. Además, también ha sido un medio empleado por mafias y grupos de crimen organizado para lavado de activos. Simultáneamente, al tiempo que se preparaba para cotizar en bolsa fue demandado por reguladores federales. Según Forbes, se llevan a cabo aproximadamente 27 millones de transacciones por día y a partir de ello recolectan datos sobre patrones de consumo, comportamientos, ubicaciones, etc. de los que emplean esta plataforma. Esta data es utilizada para autentificar la identidad de los usuarios reduciendo el tiempo de verificación cada vez que realiza una compra. Acerca de los fraudes, el objetivo principal del equipo es mitigar el número de falsa alarmas que pueden cegar/obstruir el sistema para solucionar problemas financieros relevantes. Y en el proceso evitar bloquear cuentas de usuarios genuinos. Las tecnologías que emplea para desarrollar herramientas de seguridad son inteligencia artificial, cifrado de datos, “deep learning” que se explicará más adelante y entre otros. Como resultado de integrar inteligencia artificial en los procesos operados por humanos, la tasa de falsa alarmas redujo 50%. (Burns, 2016)

PayPal reduce los casos de fraude mediante análisis de datos y la toma de decisiones a partir de insights. En estos casos, la utilidad de la data es extremadamente importante para proteger el dinero de los usuarios y evitar delitos cibernéticos que arriesgan la seguridad de todos. Para diferenciar estas predicciones desacertadas de los verdaderos fraudes y detectar anomalías interviene los modelos de inteligencia artificial que PayPal ha desarrollado continuamente. Dentro de una transacción de dos segundos, PayPal logra desde cientos a miles de controles de riesgos. En este punto es cuando toma relevancia los conceptos y tecnologías de inteligencia artificial que tienen capacidad de procesar hasta dos décadas de información sobre patrones y comportamientos de consumo en esta empresa. Como se mencionó anteriormente, los fraudes son identificados con algoritmos avanzados de “Machine Learning” y “Deep Learning” en milisegundos antes, durante y después del proceso de transacción. (Aggarwal, 2020) Ambos términos son parte del amplio espectro de la inteligencia artificial. El primero genera predicciones a partir del continuo aprendizaje y alimentación de datos y experiencias pasadas para mejorar su modelo. El segundo concepto viene como una herramienta más sofisticada y avanzada que el machine learning; involucra el uso de redes neuronales compuesto de múltiples capas para detectar patrones. Permite solucionar problemas más complejos con mejor precisión; es menos propenso a ser afectado por data irrelevante y es más robusto lidiando con información de múltiples fuentes. (Kureishy A., 2018) Estas técnicas de aprendizaje y predicción pueden ser entrenadas para distinguir entre lo que es fraude y comportamiento normal de un usuario. 

En un principio, PayPal empleaba modelos simples, fue evolucionando a través de los años integrando técnicas de machine learning, así como deep learning replicando procesos del cerebro. El equipo humano encargado del área se entrena para actuar y pensar como estafadores mientras estudian casos sospechosos fraudulentos de la vida real. Adicional a la data sobre cantidad de transacción, ubicación, etc., desarrollan todo tipo de escenarios de usuarios para alimentar el sistema de inteligencia artificial. (Kureishy A., 2018) El enfoque de su innovación es complementar la analítica de datos con las habilidades humanas para aprovechar el máximo de la tecnología. Para Sri Shivananda, vicepresidente de PayPal, es más adecuado atribuirle el nombre “inteligencia aumentada” ya que el valor verdadero está en la combinación “humano-máquina”. (Insights Contributor, 2019) Lo cual permite acelerar transacciones de usuarios verídicos y detener los que son sospechosos. Para ejemplificar, si un sistema tradicional identifica un patrón en el que la misma cuenta ha sido accedido en cinco diferentes ubicaciones en cinco días, el sistema lo determina sospechoso. Sin embargo, el modelo de inteligencia artificial de PayPal examina detenidamente cada situación, que en realidad resulta ser un piloto comprando mientras trabajaba. Se puede lograr eso debido a la información antes mencionada que se alimenta al modelo y que provee de soluciones dinámicas.

Acerca de velocidad y seguridad, PayPal tiene una innovación llamada “One Touch” que permite al usuario ahorrar el paso de registrarse al ingresar al sitio siempre y cuando esté autentificado a través de varios parámetros sobre la persona tales como: el aparato que esté utilizando, la ubicación o los comercios donde generalmente compra. (Insights Contributor, 2019) El algoritmo de deep learning de la compañía asiste en el manejo del paquete de data que un pago contiene; analiza este para buscar actividades sospechosos. De igual forma, si detecta cambios en los patrones de los factores listados en vista de intento de fraude, el algoritmo detiene y previene la transacción que se iba a generar. Con el tiempo, los datos históricos de los clientes ayudan a pulir el modelo que recorre en cada transacción. Para garantizar la seguridad y protección de información personal, PayPal aplica cifrado y encriptado de los datos; constantemente escanea mediante servidores de data, buscadores de los usuarios para asegurar que están empleando tecnología de cifrado más actualizado. Además, la información de cada consumidor se guardan en un base de datos seguros para impertir que sea interceptado en el proceso (Burns, 2016)

Ahora bien, el big data optimiza procesos en varias áreas de la empresa, personalización es uno de ellos; el objetivo es hacer que las transacciones sean simples y fáciles para cada una de las personas. A partir de insights recolectados de las experiencias, el equipo examina si sus innovaciones diarias funcionan con sus consumidores. Otra optimización se da en el tema de cumplimiento y obligaciones, donde PayPal se asegura de cumplir con las políticas monetarias y fiscales que se manejan distintamente en los 200 mercados y con más de 200 monedas. Minimiza el riesgo de cada transacción con la ayuda de una serie de parámetros que van calificando dentro de los dos segundos del proceso; es aún más importante para un sistema de pago en línea controlar este factor. 

Para concluir todo lo hablado anteriormente, es importante destacar que la solución para mitigar exitosamente los fraudes cibernéticos no basta simplemente invertir más dinero en analítica sino, invertir en un adecuado administración de data y analítica predictiva que tengan la habilidad de descifrar algo complejo para sugerir respuestas que solucionen un problema. No obstante, entendiendo mejor a los usuarios les permite llegar a mejores decisiones para satisfacer sus necesidades y optimizar muchos aspectos en la operación de la empresa así como servicio al cliente, seguridad, velocidad y cumplimientos de las políticas tanto fiscales como monetarias de todos los países con los que se dan transacciones.  

Bibliografía

Aggarwal, N. (2020, noviembre 24). Here’s how VISA, Mastercard and PayPal are fighting cyber frauds with AI. Retrieved from ETCIO: https://cio.economictimes.indiatimes.com/news/digital-security/heres-how-visa-mastercard-and-paypal-are-fighting-cyber-frauds-with-ai/79381050

Burns, E. (2016, enero 26). How PayPal fights fraud with predictive data analysis. Retrieved from TechTarget: https://searchbusinessanalytics.techtarget.com/feature/How-PayPal-fights-fraud-with-predictive-data-analysis

Insights Contributor. (2019, mayo). How paypal turns customer data into smoother safer commerce . Retrieved from Forbes: https://www.forbes.com/sites/insights-teradata/2019/05/06/how-paypal-turns-customer-data-into-smoother-safer-commerce/?sh=1aa62046ed1d

Kureishy A., M. C. (2018). Praise for Achieving Real Business Outcomes from Artificial Intelligence. Sebastopol, United States of America: O’Reilly Media, Inc.

O’Connell, B. (2020, enero 2). History of PayPal: Timeline and Facts. Retrieved from The Street: https://www.thestreet.com/technology/history-of-paypal-15062744

PYMNTS. (2015, julio 2). Throwback Thursday: PayPal’s Biggest Days In History. Retrieved from https://www.pymnts.com/in-depth/2015/throwback-thursday-paypals-biggest-days-in-history/

Análisis de datos en Heineken

Heineken es la marca cervecera número uno en Europa y segunda a nivel mundial. Hoy por hoy cuenta con más de trecientas marcas de cerveza y sidra en todo el mundo. Su nombre esta presente en ciento noventa países y cuenta con alrededor de ciento setenta fabricas alrededor del mundo, junto con la ayuda de más de ochenta y cuatro mil empleados. La idea de la empresa es impulsar la innovación, aumentar las ventas y minimizar los costos con el objetivo de elaborar la mejor cerveza del mundo.

Sus inicios surgen en Países Bajos en el año de 1864 cuando Gerard Heineken convence a su madre para comprar una cervecería local de Ámsterdam, cinco años después lanza su primera cerveza fina de calidad que tuvo grande acogida por el público. En 1874 Heineken adquirió otra fábrica cervecera en Rotterdam para aumentar la capacidad de producción, para ese entonces, su producto era exportado a países como Francia, Bélgica y Reino Unido. Para 1933 con el fin de la ley seca en Estados Unidos, Heineken se convierte en la primera cerveza importada en ese país. Principalmente en los años 70 hasta los años 80 la empresa hizo nuevas adquisiciones como la cerveza Amstel en Holanda, El Águila en España, entre otros. En 1991 la empresa abrió las puertas de su fábrica como museo “Heineken Experience” ubicada en la cuidad de Ámsterdam, que actualmente recibe 1.18 millones de visitantes al año.  

Durante más de un siglo la cerveza Heineken no ha cambiado su fórmula. Innovar en la industria de la cerveza es complicado por lo que la empresa ha tenido que buscar otras formas de innovarse y adelantarse a la competencia. En este ensayo, se hablará como Heineken utiliza el análisis de datos para reducir su huella de carbono en la cadena de valor.

Heineken cuenta con varios equipos dedicados a garantizar un acceso fácil y confiable a datos,

“usamos herramientas basadas en Microsoft Sharepoint y Power BI para consolidar datos para todos los indicadores y para monitorear el desempeño sostenible contra los objetivos en todos los niveles de la organización. A partir de este año, HeiCF (en OutSystems y Power BI) se utiliza para recopilar datos y calcular e informar sobre la huella de carbono de HEINEKEN.” (HEINEKEN, 2020, p.152)

La empresa más allá de ser un negocio rentable, desea tener un impacto positivo y por ello la sostenibilidad es parte de su estrategia empresarial. Heineken recopila datos para mejorar la precisión de sus emisiones de CO2 y con ello probar el impacto de nuevos procesos para reducir su huella de carbono.

Según datos del 2019, la empresa informa que “en promedio, emitimos 69,9 kg de CO2-e por hl de bebida de volumen vendido, lo que equivale a un total de 19,8 millones de toneladas de CO2-e” (HEINEKEN, 2019). De los cuales, el 10% de sus emisiones totales provienen del área de producción, por lo que una de las estrategias tomadas por la empresa fue la mejora en la eficiencia energética “La cervecería Monterrey en México logró una reducción del 25% en la electricidad y un 46% reducción del consumo de energía térmica, evitando más de 1.000 toneladas de CO2” (HEINEKEN, 2020, p.132), asimismo han venido implementado distintas fuentes de energía renovable. Logrando así que, en 2020, las emisiones de CO2 en el área de producción disminuyeron un 40% en comparación con 2008.  

El área de logística corresponde al 11% de las emisiones totales de dióxido de carbono en el 2019. Por lo que la empresa ha optado por optimizar las rutas terrestres y marítimas, el cambio a un trasporte de bajo consumo e implementar tecnologías bajas en carbono para los proveedores. De igual manera, todas las refrigeradoras compradas en el 2020 tenían características como uso de refrigerantes de hidrocarburos, iluminación LED y uso de energía mediante ventiladores eficientes, logrando una reducción del 55% de emisiones de CO2 que en el 2010.

Por último, el área de empaquetado emite un 30% del total de CO2 de la empresa. La empresa depende del vidro, metal, platico y papel para empaquetar la cerveza. Por lo que la solución esta en rediseñar y cambiar el empaque, por ejemplo, en las fábricas Heineken en Asia se ha implementado el uso de “aluminio verde” denominado de esta manera por su inferior huella de carbono, gracias a una producción más limpia en los procesos de fabricación. El paso al aluminio verde a reducir las emisiones de carbono de los envases en más del 30%. Adicionalmente, otra de las estrategias implementadas por la empresa es el uso de botellas retornables, lo que permite reducir un 80% la emisión de carbono.

En conclusión, el producto de Heineken no es solo una bebida alcohólica, sino un conjunto de valores, historia y recopilación de datos que la marca ha tenido que trabajar para que los consumidores lo prefieran. El objetivo con esto es que los consumidores sientan que Heineken no es una simple cerveza, sino que es el resultado de un extenso análisis de datos. Si bien muchas empresas utilizan esta herramienta para maximizar sus ingresos, el caso de Heineken es digno de admirar ya que mantiene una responsabilidad social junto con su excelente calidad lo que lo ha permitido mantenerse a través de los años.

REFERENCIAS

Bruno, DM (2005). Un caso di ricerca Applicata metaprogettuale: Heineken Experience_Business Intelligent (HE2). Recuperado de: https://re.public.polimi.it/retrieve/handle/11311/507967/272505/Design%20e%20Metaprogetto.pdf

HEINEKEN. (2020). Heineken N.V. Reporte anual 2020. Recuperado de: https://www.theheinekencompany.com/sites/theheinekencompany/files/Investors/financial-information/results-reports-presentations/heineken-nv-annual-report-2020.pdf

HEINEKEN. (s. f.). Suelta la C: reduciendo nuestras emisiones de CO2. Recuperado de: https://www.theheinekencompany.com/our-sustainability-story/our-strategy-and-achievements/drop-c-reducing-our-co2-emissions

Amazon, el gigante del análisis de datos

Cuando se habla de comercio online, es imposible obviar a “Amazon”. Pues esta compañía representa la mitad de todo el e-commerce en varias potencias mundiales. Amazon fue fundada por Jeff Bezos en 1995 y hoy en día es la empresa más grande del mundo. Esto lo ha logrado por varios puntos importantes pero la principal cosa que caracteriza a esta empresa es su enfoque en el cliente; pues Amazon afirma que es la compañía más centrada en el consumidor en el mundo. A lo largo de este ensayo se analizarán diferentes temas los cuales ayudarán a entender la trayectoria de la compañía y los hitos más importantes en los cuales destaca su originalidad y compromiso con el cliente.

Amazon empezó su trayectoria en Seattle, Washington. Desde ahí, Jeff Bezos creo una plataforma con el objetivo de vender libros online. Nunca se imaginó que 20 años después estaría en el top de las empresas mundiales. Amazon tuvo un comienzo prometedor y antes del 2000 expandió su portafolio a otros productos además de libros. Parte del éxito de Amazon empezó con la rápida adquisición de empresas como Zappos, Audible o Whole Foods en las cuales incorporó su modelo de negocio. Productos propios como Amazon Prime, Amazon Alexa o Amazon Kindle han ayudado a Amazon a expandirse a diferentes mercados con mucho éxito permitiendo un crecimiento importante. Hoy en día la compañía tiene 25 años y factura más de 200 mil millones de dólares al año.

El análisis de datos es una herramienta indispensable en los mercados actuales y más aún cuando se trata de e-commerce. El éxito de las grandes empresas se debe a decisiones que se toman día a día y la especulación a futuro se vuelve cada vez más fácil con un buen análisis de la información que se genera. Amazon es un muy buen ejemplo de esto y lo ha venido demostrando por un largo tiempo. Al ser una tienda online es indispensable tener un buen manejo de datos no solo para las decisiones internas de la empresa si no igualmente para entender al cliente y aún más con una visión centrada en el consumidor. En el siguiente contenido se incluirán diferentes ejemplos de cómo Amazon ha usado el análisis de datos para expandirse interna y externamente.

Amazon ha realizado un trabajo admirable al momento de generar conclusiones con la información que sus sistemas le proporcionan. Esta compañía ha sido capaz, como muchas otras en generar predicciones de compra. Amazon gracias a la información que su misma plataforma genera, ha logrado interpretar como y en que gastan sus usuarios. Gracias a esta información ha sido capaz de lanzar diferentes campañas de marketing que generan fidelidad a la marca y así mayores ventas. En Amazon hay más de 150 millones de cuentas activas hoy en día, esto quiere decir que la cantidad de información a interpretar es inimaginable y al analizarla se ha podido generar un motor de recomendaciones el cual según Amazon genera más del 30% de sus ventas hasta hoy. Con esta herramienta de predicción y recomendación, Amazon ha sido una de las empresas pioneras en el buen análisis de datos en su mercado.

Como se planteó anteriormente, Amazon fue capaz de utilizar el análisis de su información para generar mejor servicio y más ventas en su plataforma. No conforme con esto, hoy en día Amazon ayuda a diferentes empresas mundialmente a generar los mismos resultados usando sus análisis de datos. Esto funciona como un producto extra con el que se trabaja B2B. Amazon Web Services o AWS es una plataforma en la nube que tiene capacidades increíbles de análisis de datos. Gracias a AWS Amazon ha logrado posicionarse como una empresa innovadora y en el presente esta plataforma genera más de $10.000 millones para Amazon. Muchas empresas internacionalmente conocidas principalmente en mercados de consumo masivo trabajan con los servidores de Amazon para generar su análisis de información propia. Por esta razón se podría decir que Amazon tiene uno de los mejores análisis hoy en día ya que no importa el ámbito en el que se implemente, igual producirá información y análisis acertados.

            Otra razón por la cual el buen manejo e interpretación de información ha hecho de Amazon un ejemplo a seguir es la historia de su marca privada. En el 2007 Jeff Bezos lanzó al mercado su primera marca privada, en este momento la marca privada de Amazon genera alrededor de 7.500 millones de dólares al año y el siguiente año se espera que este valor ascienda a 25.000 mdd. Al llegar a ser exitosos vendiendo cosas ajenas, Amazon lanza sus propios productos embarcándose en un proyecto prometedor. El saber interpretar datos te lleva no solo a ver lo que se hace bien si no a descubrir que se está haciendo mal y encontrar oportunidades; esto es lo que se está haciendo con la marca privada de Amazon. Con la ayuda de su propia plataforma, la compañía intenta recomendar a sus clientes sus propios productos, así creciendo rápidamente las ventas y generando una impresionante línea de productos propios.

La ayuda que proporciona la herramienta de análisis de datos a diferentes empresas es inimaginable. Sin embargo el provecho que sacan estas diferentes compañías de la información que generan es muy variado. Es por eso que el entendimiento al consumidor se ha vuelto cada vez más importante pero no todos pueden llegar a entender y compartir con sus clientes como lo hacen las empresas con procesamiento avanzado. Amazon ha logrado entender a su cliente de manera casi perfecta y ha usado sus procesadores para generar ayuda y otra rama de negocio en otras empresas. Estos procesadores son considerados como de los mejores de todo el mundo ya que ha ayudado a una empresa centrada completamente en el cliente a generar servicios impecables y hacerlos con un crecimiento exponencial.

Documentos Citados

Mateos, Susana Maria Urbano. “Amazon: Qué Es y Cuál Es La Historia Que Esconde Detrás.” Actualidad ECommerce, Actualidad ECommerce, 26 Oct. 2018, http://www.actualidadecommerce.com/que-es-amazon/.

“Acerca De Amazon – Descubre Nuestra Empresa y Nuestra Tecnología.” Amazon.es: Acerca De Amazon, http://www.amazon.es/Acerca-Amazon-Descubre-Nuestra-Empresa-Nuestra-Tecnologia/b?ie=UTF8&node=1323175031#:~:text=Amazon%20es%20una%20de%20las,global%20en%20el%20comercio%20electr%C3%B3nico.&text=En%20la%20actualidad%2C%20Amazon%20ofrece,raquetas%20de%20tenis%20o%20diamantes.

“Amazon’s Secret of Success: Doing Crazy Things.” Yahoo! Finance, Yahoo!, finance.yahoo.com/news/amazons-secret-success-doing-crazy-215217907.html.

Emaz, Antoine, and Pérez-Ruiz Una. “AWS.” Amazon, UAP, 1998, aws.amazon.com/es/what-is-aws/.

CNN @expansionMx, et al. “La Estrategia De Amazon Para Ganar a La Competencia.” Expansión, 10 Oct. 2018, expansion.mx/tecnologia/2018/10/10/la-estrategia-de-amazon-para-ganar-a-la-competencia.

El Análisis de Datos, y su uso para responder a desastres naturales

Federal Emergency Management Agency

En la actualidad, se escucha distintas problemáticas siendo no menos importante las emergencias naturales, políticas y humanas. Desde los varios desastres como erupciones volcánicas, incendios, inundaciones, huracanes, tsunamis y terremotos, hasta la reciente pandemia de COVID-19 y sin olvidar el ataque terrorista del 9/11 o el atentado violento de la maratón de Boston. En el país de los sueños, específicamente, Estados Unidos ha logrado responder a estas emergencias de una manera muy particular a la que otros países del continente e incluso del mundo habrían podido. No obstante, debemos preguntarnos, al ser Estados Unidos un país tan grande y con estados políticamente independientes ¿Cómo es posible que este reaccione efectivamente ante una emergencia? Esto se debe gracias a la Agencia Federal de Manejo de Emergencias (FEMA por sus siglas en inglés), se caracteriza por ser la organización que se encarga de actuar inmediatamente en caso de desastres naturales o a gran escala en Estados Unidos de América. Según la página de la agencia su objetivo principal es: “Ayudar a la gente, antes, durante y después de los desastres” (FEMA, 2020). Este objetivo es logrado bajo la acción conjunta de distintas agencias federales. Su finalidad no solo es manejar situaciones de desastres, sino crear políticas públicas que permitan prevenir.   

Helping people before, during and after disasters”

-FEMA

FEMA fue creada en 1978 por la presidencia de Jimmy Carter y desde entonces ha sido la encargada de lidiar en caso de emergencia. Es conocida su respuesta después de los atentados del 11 de septiembre del 2001 y cómo se adaptó a la situación de un desastre de ese tipo, y millones de dólares fueron invertidos para la preparación ante ataques terroristas. Por otro lado, su respuesta ante el Huracán Katrina que azotó Nueva Orleans fue deficiente y muchas dudas respecto al desempeño de la Agencia crecieron (2010). El propósito final de la agencia es la de tomar decisiones rápidas ante situaciones límites para la toma de decisiones es primordial contar con la mayor cantidad de datos y evidencia posibles. Datos geográficos, meteorológicos e incluso demográficos ayudan a tomar decisiones. Es por lo tanto natural pensar que las técnicas usadas en data analysis pueden ser útiles. 

Podemos hablar del caso específico que sucedió en el estado de California con los incendios forestales. Es usual todos los años escuchar que el verano inclemente provoca la pérdida de varias hectáreas de bosques afectando no solo la vida silvestre sino incluso a la gente. Históricamente los incendios forestales en el área de San Diego han crecido cada vez más con el pasar de los años (Curran, 2019). En 2010, se quemaron 108,000 acres de bosque, mientras que en 2018 fueron 1,823,000. En términos monetarios los incendios le costaron al estado alrededor de 400 mil millones de dólares, y 85 personas murieron. No obstante es evidente que desde la perspectiva de vista del manejo de emergencias estas situaciones pueden ser prevenidas o mitigadas con políticas públicas, en otras palabras es en este contexto el análisis de datos y la toma de decisiones orientadas pueden marcar la diferencia.   

Analistas de datos independientes y asociados a FEMA llegaron a una solución usando las herramientas modernas disponibles para recopilar datos, los cuales en principio no son usados en emergencias. Las redes sociales actualmente recopilan gran cantidad de datos que de otra manera sería difícil de obtenerlos. Los datos recopilados fueron usados por un grupo de investigadores para ayudar a la toma de decisiones de FEMA en caso de emergencia. Los datos que usan provienen de sitios web como Yelp, una aplicación para calificar negocios, o Google. Los datos usados son: ubicación geográfica de los negocios, tipo de negocio, recursos disponibles para mitigar la emergencia. Por otro lado, también se usaron datos históricos sobre el tipo y recurrencia de desastres.  Estos datos permiten localizar donde se encuentran los recursos, o cuales son las zonas más propensas a sufrir en caso de emergencia (2020). El análisis de datos permite tomar decisiones sobre cómo enviar recursos y que zonas o negocios los requieren de forma inmediata. En este caso en particular los analistas de datos crearon un mapa interactivo que permitía a las agencias federales ubicar a los distintos negocios que puedan aportar con recursos en caso de emergencia, o por el otro lado, aquellos que necesiten de atención prioritaria (2020). El mapa sirve para prevenir con la creación de planes de evacuación y rutas óptimas de asignación de recursos, y en momento de emergencia para toma de decisiones inmediatas.

En cuanto a la respuesta de emergencias en la pandemia el uso de análisis de datos puede ser muy beneficioso. Las características principales de estos eventos son lo súbito, peligroso e incierto que se desarrollan. El uso de análisis datos puede ayudar a tomar decisiones para aliviar la sanidad pública y regresar a la normalidad lo más rápido posible. Actualmente se producen gran cantidad de datos de todo tipo, y el reto de los analistas es recopilarlos y procesarlos de la manera más óptima posible. En particular para la situación de la pandemia los datos médicos de pacientes, ubicación, diagnóstico y muchos más, son realmente importantes para cada una de la toma de decisiones. Una de las principales ayudas del análisis de datos ha sido el rastreo de contactos y la delimitación de áreas con mayor riesgo de contagio (Jia, 2020). Con los datos recopilados se crean árboles de las personas, con el contagiado y los contactos que provee. De esta forma es posible rastrear los contactos y clasificar zonas geográficas con mayor incidencia de contagios.

En conclusión, los desastres naturales son eventos que ocurren de manera improvista y pueden causar no sólo pérdidas económicas, sino humanitarias. El manejo de emergencias tiene dos propósitos importantes: Crear planes que previenen y mitigan los daños durante una emergencia y responder de manera inmediata y óptima cuando ocurre una. En el segundo aspecto es fundamental tomar decisiones rápidas, para lo cual el análisis de datos, la visualización de los datos en tiempo real y demás técnicas del Big Data son muy útiles en los casos descritos previamente. Esto demuestra que los gobiernos deben enfocarse e invertir más en técnicas de este tipo para mejorar su respuesta ante emergencias.  

Referencias

Curran, L. (2019). How Data Scientists can help Government Agencies Effectively Respond to Natural Disasters. https://towardsdatascience.com/how-data-scientists-can-help-government-agencies-effectively-respond-to-natural-disasters-c2978da932ee

FEMA (2020). Misión. https://www.fema.gov/about/mission

FEMA (2010). The Federal Emergency Management Agency Publication I. https://www.fema.gov/sites/default/files/2020-03/publication-one_english_2010.pdf

Jia, Q., Guo, Y., Wang, G., & Barnes, S. (2020). Big Data Analytics in the Fight against Major Public Health Incidents (Including COVID-19): A Conceptual Framework. International Journal of Environmental Research and Public Health, 17(17), 6161. doi: 10.3390/ijerph17176161. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7503476/

El Big Data en Twitter

Twitter es una red social que permite compartir enlaces, gifts, pensamientos, fotografías, videos, encuestas e información. Los usuarios pueden comunicarse de forma privada y pública con otros usuarios y así compartir sus intereses en común sobre temas de economía, política, música, noticias, eventos, entre otros. Está es considerada como una red de microblogging porque una de sus características es que el texto que se publica no puede exceder de 280 caracteres con el objetivo de narrar lo que se está pensando o viviendo de forma concreta.

Se originó como un proyecto de investigación de la empresa Obvious en San Francisco y en Julio de 2006 Jack Dorsey, Biz Stone y Evan Williams crearon la empresa Twitter Inc. para poder conseguir inversores. Para finales del 2009  disponen de versiones en francés, alemán, italiano y español.  En 2010 crea el servicio de tweets promocionados los cuales son tweets comprados por anunciantes para llegar a un grupo de usuarios específico. Para inicios del 2015 Twitter anuncia su nueva aplicación Periscope la que permite transmitir eventos en tiempo real, un año después esta aplicación ya contaba con más de 215 millones de emisiones en directo.

Big Data es un término utilizado para la recopilación de un conjunto de datos grandes y complejos, que no pueden ser manipulados con herramientas convencionales de administración de bases de datos. Esta informacion es utilizada para conocer los patrones y tendencias de las personas y así mejorar las operaciones comerciales de una empresa. Cabe destacar que, en 2016, Twitter compró Magic Pony Technology con el propósito de implementar inteligencia artificial en la plataforma y aplicar algoritmos mejores y más complejos para el análisis de los usuarios en la aplicación.

Actualmente, twitter tiene grandes requisitos de almacenamiento y tratamiento de datos, por lo que uno de los programas utilizados para recopilar los tweets es Hadoop de acuerdo con  (Kevin Weil, 2010). Este programa se usa para almacenar y procesar datos a gran escala como los tweets, por lo que se lo ha considerado un software eficaz utilizado actualmente por grandes empresas y corporaciones, como Google y Facebook.  Hadoop incluye diferentes herramientas y componentes para distribuir el procesamiento una de ellas es el “MapReduce”. De acuerdo con (Shilpi Taneja & Manish Taneja, 2014) Twitter utiliza este componente para las tendencias, analizando tweets individuales y filtrar las palabras clave que estén siendo utilizadas por muchos usuarios. Esto proporciona una perspectiva de cuales son los temas relevantes o claves en ese momento. Además, se implementa también para el análisis de sentimiento, por ejemplo, un usuario al momento de buscar una palabra clave sobre alguna marca, esto es analizado para calcular el sentimiento o puntuación por esa marca.

De acuerdo con (Bernard Marr, s. f.) la aplicación utiliza la información de los usuarios: a quién siguen, sus tweets, retweets e interacciones con otras cuentas para personalizar los anuncios. Así mismo, la información del perfil, la ubicación del dispositivo y las aplicaciones instaladas en el celular para identificar los anuncios locales y los anuncios que podría preferir el usuario. De esta misma forma los algoritmos escanean y clasifican los tweets para mostrar en el feed de cada usuario, determina los más relevantes según sus interacciones y sugiere cuentas y videos que les podrían interesar, anteriormente, Twitter solo mostraba los tweets en orden cronológico inverso.

Por otro lado, los hashtags clasifican las publicaciones y permiten conocer los temas más populares del momento. Las tendencias se determinan mediante un algoritmo y si se relacionan con un mismo tema el algoritmo las agrupa. Estas son personalizadas, sin embargo, también incluyen temas locales y globales. Actualmente las tendencias tienen una categoría, se puede ver si es de política, música, entretenimiento, etc.  De igual manera, existe un nuevo algoritmo denominado “por si te lo perdiste”, si un usuario no revisa esta red social en mucho tiempo entonces Twitter junta una serie de tweets que pueden ser importantes para ese usuario y los muestra en una sección especifica. Este algoritmo logró atraer a más usuarios, en 2017 el crecimiento de los usuarios en esta red social fue más de 18 millones.

Twitter también les da la oportunidad a los usuarios de analizar los datos e interacciones de sus publicaciones, esto se implementó en 2014 y se denomina Twitter Analytics. De esta forma se puede conocer el número de impresiones e interacciones de personas con el tweet, con esto se puede saber cuántos usuarios le dan clic a la publicación, a la imagen, al perfil, entre otras. Esto es una función interesante e importante para los negocios ya que les ayuda a identificar que tipo de publicaciones están generando más conexión con los usuarios y cuales funcionan mejor.

Se puede observar claramente como Twitter utiliza análisis de datos para ofrecer una mejor experiencia a sus usuarios y facilitar el uso de la aplicación mediante algoritmos y clasificación personalizada de tweets con la ayuda del Big Data. Así mismo, los usuarios pueden analizar las interacciones de sus publicaciones permitiendoles conocer su alcance y así mejorar. Estas funciones han logrado captar a más usuarios en la red social y así mismo a más empresas, generando un nuevo método de marketing dentro de Twitter.

REFERENCIAS

Bernard Marr. (s. f.). How Twitter Uses Big Data And Artificial Intelligence (AI). Bernard Marr & Co. https://www.bernardmarr.com/default.asp?contentID=1373#:~:text=Twitter’s%20ranking%20algorithm%20has%20taken,that%20content%20in%20their%20feed

CNN en Español. (2013). 23 momentos claves en la historia de Twitter. CNN. https://cnnespanol.cnn.com/2013/09/16/23-momentos-clave-en-la-historia-de-twitter/

Joel Lunenfeld. (2016). 10 maneras en las que el Marketing ha cambiado con Twitter. Twitter. https://blog.twitter.com/es_es/a/es/2016/10-maneras-en-las-que-el-marketing-ha-cambiado-con-twitter.html

José Antonio carballar Falcón. (2011). Twitter—Marketing personal y profesional. RC Libros. https://books.google.es/books?hl=es&lr=&id=BQnyfWCUjOcC&oi=fnd&pg=PA1&dq=twitter+negocio+&ots=Xy3h9qj4cM&sig=xh46m6bqpIU2czE8h-foVd3m3rQ#v=onepage&q=twitter%20negocio&f=false

Kevin Weil. (2010). Hadoop at Twitter. Twitter. https://blog.twitter.com/engineering/en_us/a/2010/hadoop-at-twitter.html

Shilpi Taneja & Manish Taneja. (2014, mayo). BIG DATA AND TWITTER. https://www.ijrcar.com/Volume_2_Issue_5/v2i540.pdf

Twitter. (s. f.). Preguntas frecuentes sobre las tendencias de Twitter. https://help.twitter.com/es/using-twitter/twitter-trending-faqs

El uso de Big Data en Nike

“A medida que la demanda crece, debemos saber reconducir optimizando los datos para hiper focalizarlos en los comportamientos del consumidor” explicó el director de operaciones Eric Sprunk en una entrevista. Muchas empresas han optado por el uso del Big data analytics ya que les trae varios beneficios comerciales permitiendo obtener nuevos conocimientos, llevándonos a realizar una administración eficiente y eficaz. Esta información nos ayuda a tomar decisiones acertadas y mejores. Nike es una empresa que constantemente se encuentra innovando tanto en sus productos como en sus estrategias corporativas, por lo que también ha incluido el big data en su corporación.

            El big data nos ayuda a manipular grandes cantidades de datos, que se enfoca principalmente en el almacenamiento, búsqueda y sobre todo análisis de datos. Si se usa de una manera adecuada, sabiendo descomponer correctamente la información, puede pasar de presentar datos a presentar oportunidades de negocio. También, otra de las funcionalidades es el poder estimar lo que pasará en un futuro, basado en la información obtenida. Se puede conocer fechas en las que se pueda realizar las compras, que productos son más comercializados, cuales podrían comprar nuestros clientes basado en su comportamiento, qué tipo de promoción de producto puede ser más eficaz en cierta audiencia. En conclusión, aumenta la eficacia en la toma de decisiones y por ende de los negocios, ya que toda decisión estará basada en datos de los clientes. Además, permite ahorrar tiempo.

            Nike es una compañía que se enfoca en la fabricación, desarrollo y comercialización de todo tipo de equipamiento deportivo como: ropa, balones, accesorios, calzado, entre más. Hoy en día varias empresas le han apostado al análisis de datos y Nike no es la excepción. ̈ En 2019 y 2020 Nike adquirió firmas de análisis de datos del consumidor con el objetivo de acelerar la ¨Transformación digital¨ ¨(El economista. 2019). Se realizó una alianza estratégica entre Nike y una compañía llamada Celect, que se encarga de obtener y recopilar datos para analizar las tendencias de consumo. Celect también realiza predicciones de tendencia global y local.  

            A consecuencia de la alianza estratégica realizada. Se optó por integrar aplicaciones móviles llamada ¨Nike Fit¨ esta app permite realizar un escaneo 3D con la que se busca predecir con precisión el tamaño de las zapatillas que las personas desean comprar. Con esto, la empresa puede predecir los estilos de los zapatos o prendas de vestir que sean de interés para sus clientes, cuando lo quieren y donde van a comprar. Se busca estimar los patrones de comportamiento de las compras. Esta alianza estratégica ayudará a que Nike impulse el deseo de compra. Tiempo después se realiza otro lanzamiento de una app con el nombre de ¨Nike +¨ ¨Nike Run Club¨ ¨Nike Training Club¨ que tienen como objetivo el ser asistente de deporte, se vende a los usuarios estas apps como productos complementarios que llevan a potenciar su rendimiento.  Estas apps ´s interactúan constantemente con el usuario, facilitando la recolección de datos. A consecuencia de esto se realizan las estadísticas del deporte que practiques como: rastreo de carreras, desafíos semanales, planes de entrenamiento, calorías quemadas, saturación de oxígeno, competiciones en línea y más. Con toda esta información que se está obteniendo de sus clientes, la empresa podrá saber aspectos como el potencial, cuando ya tendrás la necesidad de obtener nuevos accesorios o zapatos de la marca ya que estará basado en la durabilidad de sus productos con el uso que tú le das. Además, podrá conocer tus intereses en algún deporte y te promocionará accesorios relacionado con este. Con toda esta información, se estima cuando realizaras la compra por lo que te mostrará una oferta de productos y servicios personalizados. “Tenemos que anticipar la demanda. No tenemos seis meses para hacerlo. Tenemos 30 minutos”. explicó el director de operaciones Eric Sprunk en una entrevista a CNBC.

            En conclusión, el uso del big data permite a Nike conocer mejor a sus clientes. Esto les permite tener un mayor margen de utilidad. También, la toma de decisiones le ha ayudado a que no tengan un alto nivel de inventario en su punto de ventas, reduciendo el gasto en almacenamiento. Y sobre todo, adelantándose a la necesidad de sus clientes en comprar productos deportivos, permitiéndole publicitar sus productos y que sea Nike quien compre. Después del uso del Big Data, las ventas de Nike aumentaron en un 12% que corresponde a un ingreso de $10 millones. Además, para el inicio del 2020 las acciones se elevaron en un 8%, llevando a una capitalización de mercado de $127000 millones.

Referencias bibliográficas

Pinazo, D. (Mayo 2017). La importancia del Big Data en la empresa. Comunidad IEBS. Recuperado de: https://comunidad.iebschool.com/davidpinazo/2017/05/importancia-big-data-empresa/

            Cediel, D. (2019). Big data imprescindible en el analisis de datos. Viewnext. Recuperado de: https://www.viewnext.com/importancia-del-big-data/#:~:text=Importancia%20de%20Big%20Data%20Analytics&text=El%20an%C3%A1lisis%20Big%20Data%20es,los%20problemas%20de%20los%20clientes

            Finsa, K (2019). Cinco ejemplos de empresas que usan big data. Connections. Recuperado de: https://www.connectionsbyfinsa.com/cinco-ejemplos-de-empresas-que-aplican-big-data-para-conocerte-mejor/             El economista (2019). Nike apuesta al big data para predecir compras y terminar con los mayoristas. El economista. Recuperado de: https://eleconomista.com.ar/2019-08-nike-compro-una-compania-de-big-data-para-predecir-mejor-al-consumidor/

Análisis de datos en Robinhood Markets Inc.

La popular empresa estadounidense “Robinhood Markets Inc.” fundada por Vladimir Tenev y Baiju Bhatt en 2013 y lanzada oficialmente en 2015 es una empresa con sede en Menlo Park, California que ofrece servicios financieros y es conocida por operar sin comisiones en mercados financieros a través de una aplicación móvil, lo cual permite a los 13 millones de usuarios registrados en esta plataforma invertir su dinero de forma rápida y sencilla.

Entre los principales logros y controversias de la empresa tenemos el rápido aumento en la valoración de la empresa gracias a las grandes rondas de financiación que recibió entre los años 2017 y 2019, mismas que valorizaron a Robinhood entre los $7 000 millones a los $10 mil millones. En cuanto a las controversias de Robinhood tenemos violaciones a la seguridad en 2019 donde se demostró que miles de contraseñas eran almacenadas por la empresa; también, afrontó una importante controversia debido al suicidio de Alexander E. Kearns quien dejo una carta acusando a Robinhood de haberle permitido correr muchos riesgos en su plataforma; finalmente, afrontó su controversia más reciente en 2021 donde se le acuso de restringir deliberadamente el comercio de ciertas acciones para evitar que inversores minoristas obtengan un beneficio de la situación.

A continuación, hablaremos un poco sobre como Robinhood utiliza el análisis de datos en su plataforma para ofrecer el servicio más adecuado a las personas al momento de invertir en la bolsa de valores. Abordaremos temas como la información personal que solicitan al momento de crear una cuenta, los datos agrupados que presentan sobre las empresas disponibles en su plataforma, las sugerencias basadas en análisis para los inversores minoristas y los datos agrupados que presentan a los inversores con relación a su portafolio de acciones bursátiles.

En primer lugar, tenemos toda la información que Robinhood recopila al momento de crear una cuenta en la plataforma. Por un lado, ellos reúnen información personal como nombre, fecha de nacimiento y dirección; por el otro, reúnen información bancaria para poder determinar si cuentas con ingresos que te permitan utilizar la plataforma y solventar los gastos. Adicionalmente, realizan preguntas para poder tener una idea del conocimiento que posees cuando de comercio de acciones se trata. Esto le sirve a Robinhood para saber a qué segmento de mercado debe dirigirse; actualmente la mayor parte de los usuarios de esta aplicación son millennials.

En segundo lugar, Robinhood publica diariamente las noticias más relevantes en el mundo y también de las empresas que investigamos. Junto con eso, la plataforma tiene registrados todos los precios de las acciones de las empresas desde el momento en que decidieron cotizar en bolsa para poder brindar razones financieras relevantes tales como su porcentaje de crecimiento, precio de apertura, precio de cierre, volumen de ventas, dividendos y capitalización en el mercado. Estos datos son muy utilizados por profesionales para realizar sugerencias a los inversores minoristas, la plataforma utiliza estas sugerencias y presenta a los usuarios los porcentajes para las opciones “Sell”, “Buy” o “Hold”, mismas que dan una idea a los inversionistas sobre qué acciones están tomando las personas sobre la empresa.

Finalmente, Robinhood lleva un registro de los portafolios y analiza sus datos para presentárselos a los inversionistas. Dentro de este análisis las personas pueden conocer el número exacto de acciones que poseen, su porcentaje de diversificación, el retorno sobre la inversión total, el costo total de la inversión y los dividendos que genera al momento. Esto es muy útil para las personas ya que evita confusiones y les permite acceder a todas sus inversiones de manera rápida y sencilla mientras que llevan un registro de su crecimiento o decrecimiento con el paso del tiempo.

En conclusión y como es de esperarse, Robinhood tal como cualquier plataforma de comercio de acciones utiliza mucho lo que es el análisis de datos para poder presentar información valida a las personas que quiere usar su plataforma para invertir su dinero, estos análisis que presentan deben ser extremadamente precisos debido a que las personas están confiando su dinero y en muchas ocasiones sus ahorros de vida, lo cual podría resultar en una catástrofe de no tener datos reales y agrupados. Es importante recalcar que a pesar de todas las controversias que Robinhood ha afrontado durante los últimos años, continúa siendo una de las plataformas de trading más populares en el mundo y la gente lo sigue prefiriendo gracias a la intuitiva interfaz que ofrece y a la facilidad para invertir que les brinda a los usuarios.

Referencias

Celine, T. (18 de junio de 2020). College Student Commits Suicide After Online Trading Platform Robinhood Showed His Negative $730,000 Debt. Obtenido de Tech Times: https://www.techtimes.com/amp/articles/250416/20200618/college-student-commits-suicide-after-online-trading-platform-robinhood-showed-his-negative-730-000-debt.htm

Marrón, M. (29 de enero de 2021). Quién está detrás de Robinhood, los dos amigos billonarios que han dado la vuelta a Wall Street. Obtenido de NIUS: https://www.niusdiario.es/vida/visto-oido/robinhood-quien-detras-app-trading-bolsa-foro-reddit-wall-street_18_3083070176.html

Plaza, A. (29 de enero de 2021). Robinhood, la app de trading ‘millennial’ que enganchó y dejó tirados a miles de pequeños inversores con GameStop. Obtenido de Eldiario.es: https://www.eldiario.es/economia/robinhood-app-trading-millennial-engancho-dejo-tirados-miles-pequenos-inversores_1_7178731.html

Royal, J. (s.f.). Robinhood® review 2021. Obtenido de Bankrate: https://www.bankrate.com/investing/brokerage-reviews/robinhood/

Disney y Big Data

The Walt Disney Company, o también conocida como Disney, es el conglomerado de medios de entretenimiento más grande del mundo. El público, en general, cataloga a Disney como el estudio con la cara del ratón Mickey que produce películas y series dirigidas hacia una demografía infantil; sin embargo, hay varios factores que se omiten tras esta generalización tan amplia y, en parte, errónea. La compañía no solo es productora de películas animadas por medio de Walt Disney Animation Studios y Pixar Animation Studios, sino que adicionalmente posee varios canales de televisión, tales como Disney Channel, Disney Junior, Disney XD, ESPN, y la American Broadcasting Company; y cuenta con un servicio de plataforma de streaming llamada Disney +.  Así mismo, adquirió otras propiedades intelectuales adicionales como Marvel Studios, Lucasfilm, 20th Century Studios, Searchlight Pictures, Fox, ABC News & Enternatiment, y National Geographic. Sin mencionar sus parques temáticos en Estados Unidos, China, Japón, Francia y Hong Kong; así como, su línea de cruceros Disney Cruise Line.

La compañía cuenta con aproximadamente 97 años de trayectoria, por lo que, para evitar explayarse en su historia, se tocará puntos clave desde su nacimiento y desarrollo de la compañía. En 1923, Walt Disney llegó a California tras la creación de su caricatura “Alice’s Wonderland”, decidido a usarla como piloto y venderla a un distribuidor como una serie. Debido al exitoso contrato con un distribuidor de Nueva York, M. J. Winkler; el 16 de octubre de ese mismo año, la compañía Disney Brother Cartoon Studio fue fundada junto con su hermano Roy (D23, s.f.). En 1928, el famoso personaje Mickey Mouse realizó su debut en la pantalla grande como personaje en el cortometraje animado “Steamboat Willie”. En la próxima década, la compañía estrenaría su primer largometraje animado a color, “Blanca Nieves y los Siete Enanitos”, la cual fue un éxito en taquilla. En 1955, Walt abre Disneyland en Anaheim, California. Gracias al gran éxito de Disneyland, en el año de 1971, Walt Disney World abre sus puertas en Orlando, Florida; lo que en un futuro causaría una gran expansión de parques temáticos. El 2006, Disney se hace de Pixar Studios, esta compra sería el inicio de otras futuras hacia compañías de entretenimiento. Disney adquirió Marvel Studios en el 2009, y Lucasfilm en el año 2012. Finalmente, en el año 2019 Disney compra Fox; lo que posicionaría a Disney como un posible monopolio en el mercado del entretenimiento.

Un conglomerado que posee una escala y alcance tan grande como The Walt Disney Company se ha mantenido a flote debido a su constante innovación creativa y tecnológica. Como se ha mencionado previamente, Disney no es solo una compañía que se dedica a la creación de películas, sino que gran parte de sus ingresos anuales se deben a la venta del “merchandising” y, como no, sus parques temáticos alrededor del mundo. Disney se ha propuesto en estos últimos 5 años, la evolución de la experiencia de los visitantes por medio del análisis y recolección de datos. Es decir, llevaron al cabo, una estrategia de Big Data.

Big Data define una situación en que los conjuntos de datos han crecido a tamaños tan grandes que las tecnologías para la recolección de información convencionales no pueden manejar eficazmente ni el tamaño del conjunto de datos, ni su crecimiento (Ohlhorst, 2012). En otras palabras, el conjunto de datos ha crecido a tal magnitud donde su administración es difícil, y obtener valores de estos es una labor en extremo complicada. Esta definición se acopla perfectamente a los 100 millones de personas que visitan anualmente los parques de Disney (Alharthi, 2017); individuos de los cuales Disney obtiene información por medio de la implementación de las pulseras RFID.

Las pulseras RFID o Disney’s Magic Bands, son pulseras impermeables, parecidas a un reloj, que vienen en una amplia gama de colores y diseños. Estas están diseñadas para realizar una recolección de datos más efectiva del usuario para la compañía, y a su vez, un mejor servicio al cliente por parte de la compañía al usuario; debido a que estas están interrelacionadas al sistema “My Magic+”. Los sensores RFID son pequeños dispositivos informáticos que pueden transmitir información digital sobre el objeto al que están conectados de forma automática e inalámbrica, a una distancia considerable y sin necesidad de línea de visión (Alharthi, 2017). Para el usuario, esta pulsera sirve como entrada a los parques de atracciones, llave del hotel, se puede relacionarla directamente a la tarjeta de crédito para pago en restaurantes y tiendas de merchandising; sin mencionar la facilidad para la reservación de fast-pass y el acceso a atracciones sin hacer cola. Lo que permite un viaje más ligero durante el periodo de vacaciones.

A su vez, la compañía obtiene un gran flujo de información que se almacena en bases de datos. Disney recibe informes de horas de entrada y salida de los parques, patrones dentro del uso de las atracciones, un historial de consumos y compras dentro del parque, y ubicación en tiempo real dentro del resort. Debido a la ayuda de las pulseras y la aplicación de “My Disney +”, la aplicación puede realizar acciones como presentar sugerencias o incentivos para redirigir a personas a las zonas menos congestionadas del área (Karp, 2016).  Esta gran afluencia de datos ha sido usada para diseñar campañas de marketing, basándose en el público objetivo de las pulseras, así como la planificación de actuaciones temáticas dentro del parque considerado que zonas se encuentran con un mayor grupo de personas. Debido a la implementación de estas tecnologías, Disney se ha permitido realizar una optimización más eficiente de los recursos dentro del parque, al grado que se ha reportado una disminución del 20% de costos internos del parque (Karp, 2016).   Esta función no solo recolecta datos, sino que a su vez produce una nueva experiencia para el visitante.

Bibliografía:

Alharthi, A. (2017). Addressing barriers to big data. ScienceDirect. https://www.sciencedirect.com/science/article/abs/pii/S0007681317300022

Big Data Behind Disney Magic. (2019, 13 noviembre). Digital Innovation and Transformation. https://digital.hbs.edu/platform-digit/submission/big-data-behind-disney-magic/

D23: The Official Disney Fan Club. (s. f.). Disney History. Walt Disney Archieves. Recuperado 26 de febrero de 2021, de https://d23.com/disney-history/

Karp, A. (2016, 28 marzo). Big Data y la experiencia Walt Disney. CulturaCRM. https://culturacrm.com/big-data/big-data-la-experiencia-walt-disney

Ohlhorst, F. (2012). Big Data Analytics: Turning Big Data Into Big Money [Libro electrónico]. John Wiley & Sons. https://books.google.es/books?hl=es&lr=&id=59jqanSN0mwC&oi=fnd&pg=PR9&dq=disney+and+big+data&ots=_G3MFLBFU9&sig=IpB2Hs_nYrghKqpgSZM-6h_Vm1E#v=onepage&q=disney&f=false

The Walt Disney Company. (s. f.). Disney – Leadership, History, Corporate Social Responsibility. Recuperado 25 de febrero de 2021, de https://thewaltdisneycompany.com/about/#-5

Michelangelo, la analítica de Uber

Durante toda la historia la movilización ha sido un factor muy importante para el ser humano. A lo largo del tiempo el servicio de taxis dominó el mercado en la mayoría de países. Sin embargo, en 2009 una idea transformó y revolucionó la forma de movilizarnos. Se creó una plataforma para solucionar el problema del servicio de transporte donde se buscaba que a través de tu teléfono tengas un vehículo en el lugar adecuado y en el momento preciso.

El generador de esta idea fue Travis Kalanick, el nació en Los Angeles, USA en 1976. Buscando innovar la movilización decidió implementar un plan de negocios basada en la economía colaborativa. Es decir, que él no quería tener empleados a quienes pagarles un sueldo, él simplemente quería unir conductores con consumidores a través de una aplicación. Así que en 2009 se fundó Ubercab, esta empresa se basaba en pedir un taxi desde una aplicación. Al tener una gran acogida en 2010 se lanzó la aplicación en San Francisco. Al tener bastante éxito muchos inversionistas decidieron invertir en la empresa y así fue como crecieron a diferentes ciudades. En 2012 se cambiaron de nombre a Uber y el resto ya es historia.

En un principio, al tener pocos consumidores, Uber manejaba toda la información manualmente. Pero en vista de que empezó a existir un crecimiento exponencial en la empresa teniendo más consumidores y más conductores, la aplicación necesitaba manejar mayor información. Esto provocó que la mayor parte de sus inversiones se vayan en plataformas para poder manejar los datos y lograr que la aplicación funcione correctamente. Como uber menciona “Uber Engineering está comprometida con el desarrollo de tecnologías que crean experiencias impactantes y fluidas para nuestros clientes. Estamos invirtiendo cada vez más en inteligencia artificial (IA) y aprendizaje automático (ML) para cumplir con esta visión” (Hermann, J. 2017).

Al tener el objetivo de tener una aplicación y una plataforma eficiente, Uber decidió contratar científicos de datos. Estos ayudaron a la empresa para crear algoritmos y para crear un mejor manejo de los datos y así poder tener un mejor manejo dentro de la aplicación. Lograron recopilar todos los datos en una misma plataforma. “Usaban una amplia variedad de herramientas para crear modelos predictivos (R, scikit-learn , algoritmos personalizados, etc.). Algunos científicos e ingenieros de datos podían construir en un corto período de tiempo con herramientas en su mayoría de código abierto.” (Holler. A, 2019). Como se menciona, existió mucha dificultad y muchas herramientas para poder manejar esa cantidad de datos.

Después de pasar por todos estos desafíos, Uber logró crear una plataforma revolucionaria llamada Michelangelo “En Uber, nuestra contribución a este espacio es Michelangelo, una plataforma interna de aprendizaje automático como servicio que democratiza el aprendizaje automático y hace que escalar la IA para satisfacer las necesidades de las empresas sea tan fácil como solicitar un viaje.” (Hermann, J. 2017). Esta plataforma fue diseñada para administrar datos, evaluar e implementar datos, hacer predicciones en tiempo real, monitoreo y aprendizaje automático. Generando herramientas escalables, confiables, reproducibles, fáciles de usar y automatizadas.

En conclusión, creo que Uber ha tenido que adaptarse rápidamente en el mundo digital y de datos. Esto ha sido su factor diferenciador y el punto clave de su éxito. Ya que esto le permite tener muchas predicciones en tiempo real y le ayuda a tomar mejores decisiones, también este gran manejo de datos hace que todo sea mucho más eficiente y funcione mejor. Por otro lado, esto funciona para tener un marketing digital mucho mejor por lo que se puede vender mucho más. Por esto considero que Uber es un gran ejemplo de cómo se debe manejar los datos para beneficiar a tu empresa.

Bibliografía:
Hermann, J. (2017, September 5). Meet Michelangelo: Uber’s Machine Learning Platform. Retrieved February 4, 2021, from Uber Engineering Blog website: https://eng.uber.com/michelangelo-machine-learning-platform/

Holler, A. (2019, October 16). Evolving Michelangelo Model Representation for Flexibility at Scale. Retrieved February 5, 2021, from Uber Engineering Blog website: https://eng.uber.com/michelangelo-machine-learning-model-representation/

Chevrolet y su Aplicación de Big data

¿Sabías que el creador de una de las marcas de vehículos pioneras y más reconocidas a nivel mundial como Chevrolet terminó su vida en la miseria y siendo un trabajador más para poder sobrevivir?

Chevrolet es una empresa dedicada a elaborar todo tipo de vehículos teniendo en su arsenal una gama diversa de automóviles y camiones con su industria matriz en Detroit ubicada en los Estados Unidos, Chevrolet pertenece al grupo General Motors Company quien es el principal y más grande productor de vehículos del mundo, portando en su abanico la firma de Chevrolet quien es la principal marca distribuida por General Motors Company considerada así por su gran acogida de ventas en los últimos siglos. Chevrolet se encuentra en varios mercados como es el caso de: América del Sur, América del Norte y en los últimos años ha ingresado al mercado en el territorio africano y asiático.

Para empezar, es importante considerar los hitos históricos que engloban a Chevrolet. ¿Cómo nace el nombre Chevrolet? Louis Joseph Chevrolet nacido en Suiza en el año de 1878, su padre de oficio relojero fue quien le incentivo y sembró en él, la destreza de la mecánica, cuando cumplió los 10 años de edad Louis y su familia tuvieron que mudarse a Francia donde tuvo la oportunidad de trabajar en un taller que se dedicaba a la reparación de bicicletas, incursionado en el medio años más tarde crea su primer invento que fue una bicicleta a la cual la denomino Frontenac. Cuando cumplió 15 años descubrió el increíble mundo que engloba a los autos, en donde años más tarde se convirtió en chofer de competencias automovilísticas. Para el año 1911 Louis Joseph comienza con la idea de construir su propio automóvil, pero aun no contaba con la preparación suficiente, así que realizo una asociación con el Ing. Etienne Planche que le ayudo a pulir sus conocimientos, pero esto no acabaría aquí, tiempo después Louis Chevrolet no encontraba quien apoyara económicamente su proyecto y es aquí en donde conoce a un comerciante de nombre William Duránt quien no dudo dos veces y acepto inmediatamente crear una asociación para en el año 1912 sacar al mercado el primer vehículo que en honor a su creador lleva el nombre de Chevrolet Classic Six, desde sus inicios Chevrolet revoluciono y lidero el mercado de vehículos siendo este uno de los más vendidos, pero a pesar de ellos Louis Chevrolet no era dueño ni de la décima parte ya que su socio lo habría estafado a tal punto que para poder sobrevivir tuvo que vender el poco porcentaje de acciones que le correspondía llegando al final de sus días en extrema pobreza. (Guest, 2021, p.3,5)

General Motors es una de las empresas que tuvo que pasar de ser una de las pioneras a nivel mundial a tener una crisis económica a tal nivel que llevo a la quiebra a General Motors Corporation por varios años. Con el pasar del tiempo General Motors arranco con la reestructuración de su empresa en la que paso de ser General Motors Corporation a General Motors Company en donde empezó a corregir todos y cada uno de sus errores e implementar nuevas estrategias, una de ellas vino de acuerdo al avance con pasos agigantados de la tecnología con la implementación del Big Data. General Motors Company ha experimentado un cambio fuerte y todo se debe a la recopilación de un sin número de datos masivos que sirven para saber que ofrecer, cuando hacerlo y cómo hacerlo para poder llegar a sus clientes y tener éxito en su empresa (EcuRed,2020).

En la actualidad General Motors Company se encuentra aún en medio de la trasformación TI, implementando más personal y a su vez desarrollando su propia base de datos que es nada más y nada menos que empezar a recopilar y almacenar la mayor cantidad posible de datos que sirvan de apoyo para que su industria logre llegar a vender y cada vez ser más eficaz y eficiente a la hora de ofrecer sus productos.  La innovadora base de datos de General Motors Company ya consta con aproximadamente 3 petabytes que es la cantidad de almacenamiento de datos en un sitio web elaborada específicamente para perfeccionar el desarrollo de sus vehículos, la calidad de los mismos, su manera de adquirirlos, su logística y por su puesto el marketing para sus ventas entre otros datos. General Motors Company ejecuta 3 formas de Big Data que va desde la telemática en sus vehículos, hasta desarrollar perfiles de sus clientes con el propósito de presagiar su fabricación y distribución a la hora de vender, básicamente una planta de información usada para elaborar autos.

El rendimiento en el concesionario es la primera implementación que consiste en combinar métodos de información geográfica y el análisis big data para obtener una mejora en el desempeño de los distribuidores, este tipo de análisis espacial o mapeal se comparten con el distribuidor para que puedan ver la demografía, sus características de ubicación para entender a los clientes. Según Three Use Cases of How General Motors Applies Big Data to Become Profitable Again. General Motors hoy gracias al análisis de sus datos sabe que a sus clientes no les interesa transitar por alado de sus distribuidores que les convenga mejor si eso les beneficiara con un descuento al momento de adquirir un vehículo, pero a pesar de ellos no recurrirán a lo mismo cuando su vehículo requiera algún servicio técnico, este tipo de análisis le permite conocer mejor a su cliente a la hora de ofrecer o lanzar al mercado algún automóvil. (2021, párr.3,4). 

El marketing personalizado de General Motors cuenta con un presupuesto arriba de los 2.000 millones de dólares anuales con lo que puede llegar a un sin número de clientes potenciales, pero en vez de llegar de una manera más general al público han implementado el uso del big data para obtener perfiles específicos de sus verdaderos clientes lo que les permite segmentar de mejor manera su mercado. A través de la combinación de los datos de sus clientes y los datos demográficos General Motors sabe a qué publico dirigir o distribuir cierta gama de vehículos y a que publico no hacerlo por ejemplo en américa del sur y a países específicamente como Ecuador, Venezuela, Colombia, Perú no se puede comercializar una gama de vehículos igual a los vehículos que se comercializan en Europa, por simples y claras razones una de ellas es la posición económica no es igual la de América del sur con la de Europa, entonces gracias a la obtención de datos General Motors puede saber que vehículos sacar a distintos tipos de mercado y que vehículos no para que esto no afecte su producción y ventas.

La Telemática y coches inteligentes conectados, para General Motors la telemática es la fuente de dinero que le genera la mayor cantidad de ahorros, para ser exactos de hasta $800 por vehículo. Hoy en día para nadie es nada nuevo que los vehículos vengan con una infinidad de sensores que ayuden prácticamente a tener control del funcionamiento de todas las partes del auto y General Motors se concentra en los sensores y telemáticas dentro del vehículo lo que le permite brindar a sus clientes seguridad y confianza al adquirir sus automóviles. Los autos con esta telemática ofrecen varios beneficios tanto al dueño como a sus fabricantes ya que al tener acceso a los datos del vehículo ambas partes pueden emitir y recibir información que les permita obtener diagnósticos de cómo va su vehículo y de los mantenimientos que este necesita para poder tener el vehículo en excelentes condiciones. (2021, p.1).

Estas tres aplicaciones de General Motors marcan el inicio de lo que será un gran cambio y avance en su industria a través de Big Data, actualmente se encuentran trabajando en otras aplicaciones de Big Data como es el caso de una tableta en la que permitan al vendedor buscar el inventario, los proyectos, los estímulos de un automóvil mientras atienden un cliente, con lo que General Motors está percibiendo un cambio cultural fuerte para transformarse en un motor de datos.     

Bibliografía

General Motors – EcuRed. (2020). Ecured.cu. https://www.ecured.cu/General_Motors

 Guest3a7d8c. (2021). Chevrolet una pasión. Slideshare.net. https://es.slideshare.net/guest3a7d8c/chevrolet-una-pasin

‌Rubén Fidalgo. (2015, December 4). Qué significa el logo de Chevrolet.

Autocasión; Autocasión. https://www.autocasion.com/actualidad/reportajes/que-significa-el-logo-dechevrolet#:~:text=La%20marca%20Chevrolet%20se%20funda,los%20primeros%20a%C3%B1os%20del%20autom%C3%B3vil.&text=Si%20el%20nombre%20procede%20del,tiene%20su%20origen%20en%20Francia

‌ Tinsa. (2015). Tinsa Tasaciones Inmobiliarias. Tinsa Tasaciones Inmobiliarias. https://www.tinsa.es/blog/historia/general-motors-la-historia-de-un-referente-de-la-industria-del-automovil/

Three Use Cases of How General Motors Applies Big Data to Become

Profitable Again. (2021). Three Use Cases of How General Motors Applies Big Data to Become Profitable Again. Datafloq.com. https://datafloq.com/read/three-use-cases-general-motors-applies-big-data-be/257

LUCA, el Big Data de PEPSICO

PepsiCo es conocida como una empresa multinacional muy poderosa establecida en los Estados Unidos que se dedica a la producción, fabricación y distribución de distintos aperitivos y variedad de bebidas, aún que ha ido expandiendo su portafolio estos últimos 5 años. Esta empresa ya se encuentra en más de 200 países, tales como como Colombia, México, República Dominicana, Argentina, Guatemala, Venezuela y Uruguay.

            La empresa nació en 1923 gracias a Caleb Bradham, el cual tenia la intención de crear una bebida que ayude a la digestión y como estimulante, pero debido a la caída del azúcar, la empresa quebró y paso a manos de Roy Megargel. En 1936 doblo sus beneficios y se posiciono como presidente Walter Mack. Tuvieron varios conflictos a inicios y durante la segunda guerra mundial, sin embargo, continuaron con la creación de nuevas plantas de extracción de azúcar y embotellamientos. En 1965 se posiciona como presidente de la compañía Donald Kendall en donde Pepsi-Cola se une a Frito-Lay para convertirse en PepsiCo Inc. En ese mismo año la empresa lanza la primera botella plástica en la historia.

            Esta empresa usó el BigData como principal fortaleza para llegar a duplicar sus ventas y “comienzan un proyecto de consultoría y analítica avanzada con LUCA con el fin de entender mejor tanto a sus clientes como a los consumidores” (LUCA,2019). Lo que hicieron fue identificar insights o aprendizajes ejecutables para el negocio, el cual consiste en modelos analíticos que combinan la fuente de datos de un cliente, y demás fuentes externas.

            Lo que hace en general la plataforma de Big Data que tiene PepsiCo es que aconseja a las tiendas que productos comprar, donde colocarlos y hasta que promociones lanzar, además el lanzamiento de Quaker Overnight Oats le permite a la empresa identificar alrededor de 24 millones de hogares y donde dirigir su producto, saber en que lugar hay mayor probabilidad de que los usen, y crear las promociones adecuadas para cada sitio. Y no solo aplica para lo que venden, si no para las personas que lo hacen “PepsiCo cuenta con estrategias para su selección de personal, reclutamiento y capacitación” (Wikipedia, 20121)

            Además, PepsiCo hace uso de la inteligencia artificial para la lectura de millones de datos de su BigData y clasificarlos por categoría, lo que facilita el trabajo de distribución y producción de más de 10 productos que ellos poseen en su portafolio, por consiguiente, establecer puntos muy específicos de sus segmentos seleccionados y tener un crecimiento del 80% en su primer lanzamiento del uso de las herramientas ya mencionadas.

            En conclusión, desde el principio esta empresa decidió innovar, desde las botellas, hasta hoy en la actualidad el uso de millones de datos de las personas. El BigData ha ayudado en gran manera a un sin numero de empresas, pero PepsiCo es un claro ejemplo de cómo su producción puede aumentar si tan solo se ordena la gran información que se dispone en estos tiempos, y ordenara de manera que la empresa pueda no solo interpretar los resultados si no aplicarlos al mundo real.

Referencias bibliográficas:

https://es.wikipedia.org/wiki/PepsiCo

https://empresas.blogthinkbig.com/segmentacion-avanzada-pepsi-html/

ALPHABET.INC

Alphabet.Inc es una multinacional creada el 10 de agosto de 2015, su CEO es Larry Page y como Presidente Ejecutivo tenemos a Serguéi Brin los principales creadores de Google. En Althabet.Inc su principal filial es Google, un proyecto universitario creado en (1998) con el objetivo de administrar, distribuir y organizar datos en internet. Alphabet.Inc se comercializa a través de internet a nivel mundial. Google es una gran empresa en cuanto a la recopilación de datos se refiere ya que al adquirir los datos de sus usuarios, también los ofrece de manera indirecta a diferentes empresas tanto pequeñas, medianas y grandes,  por lo que todos podrían acceder a ella, actualmente su sede se encuentra en Mountain View, California, Estados Unidos.

Imagen: Línea del Tiempo de Google. Deutsche Welle (www.dw.com). (2015, 10 agosto). Google announces significant restructuring. DW.COM. https://www.dw.com/en/google-announces-significant-restructuring/a-18639710

Bajo Althabet.Inc se encuentran 7 empresas. Las principales empresas que se encuentran bajo Alphabet.Inc son Google, en (2013) Google crea Google capital con el fin de invertir en empresas establecidas que no han alcanzado la madurez necesaria. Calico (2013) es una empresa de Google que se encarga de la posibilidad de alargar la juventud a cargo de Cynthia Kenyon científica estadounidense y vicepresidenta de la empresa, Google Ventures (2009) esta empresa se encarga principalmente en la inversión en pequeñas empresas que están saliendo al mercado como startup, Xlab (2010) es una empresa destinada a la investigación entre ellos grandes avances para el futuro tecnológico. Fiber (2010) esta empresa de google busca ofrecer un servicio más rápido de internet utilizando fibra óptica. y Nest (2010) esta empresa ofrece dispositivos altavoces que te permiten variedad de opciones desde la nube para acceder a música, podcast, calendario, alarmas, notas, compras, etc. Alphabet.Inc crea Google Assistant el 18 de mayo de 2016, un asistente que mediante la voz podría ser capaz de programar los que su usuario le pidiese como alarmas, búsquedas, etc. Es muy importante destacar la existencia de todas estas empresas y específicamente las que se encuentran bajo el nombre de Google ya que estas son las que se encuentran directamente en relación con el consumidor y es una interacción neta sobre el manejo de datos. Es decir, que por ejemplo Youtube, Chrome e incluso el correo de Gmail son plataformas que brindan información exacta sobre sus usuarios a la empresa que ayuda a generar mayor exactitud a la hora de ofrecer servicios. Lo que hace que la interacción con los usuarios cada vez sea más personalizada.

Alphabet.Inc reconocida por Google ha ido creciendo a nivel mundial siendo el principal canal directo para las búsquedas en internet gracias a su eficacia, sin dejar de lado todas las empresas bajo su nombre que buscan facilitar mejorar la vida de sus usuarios. En la actualidad podemos ver cómo la empresa ha sido de gran ayuda y de ha ido adaptando a los cambios que la sociedad requiere en el momento que lo necesita como lo fueron el incremento de las ventas por medio de internet, popularizar sitios de empresas con ayuda de Marketing Digital, encontrar lugares gracias a sus mapas satelitales, y ayudar ofreciendo a las empresas de forma indirecta métodos de venta eficaces con los datos que Google posee de sus usuarios es por esto que su crecimiento ha colaborado a diferentes empresas a descifrar el comportamiento del consumidor debido a su manejo de datos, lo que ha permitido conocerlos a profundidad y que Google cada vez clasifique de forma efectiva a sus usuarios y logre  satisfacer sus necesidades de manera más acertada. Sin embargo es importante resaltar como Google con los años a facilitado la manera de adquirir los datos de sus usuarios que no es hasta la actualidad que provocó un llamado a la atención de los usuarios de cuánta información personal pueden tener google.

Google fue casi vendida en 2002 por Yahoo! Ya que intentó su compra por 3.000 millones de dólares que Google rechazó en la actualidad Google se encuentra valorada en un aproximado de más de 100.000 millones de dólares al año y que sigue incrementando debido a que Google se ha adaptado a los cambios y se encuentra en la búsqueda de nueva tecnología dándole cara al futuro, Google sin duda está entre las empresas más innovadoras con visión hacia el futuro como Amazon, Tesla, etc.

“9 de octubre de 2006 Google se hizo con YouTube, superando a competidores como Microsoft, Viacom o Yahoo!, por 1.650 millones de dólares.”


[1]R. (2018, 26 septiembre). Dos décadas de Google: los hitos que han hecho al gigante de internet tal y como lo conocemos. Marketing Directo. https://www.marketingdirecto.com/digital-general/digital/dos-decadas-de-google-los-hitos-que-han-hecho-al-gigante-de-internet-tal-y-como-lo-conocemos

Es importante resaltar a YouTube ya que es una empresa que ofrece servicios multimedia como música, videos, películas, tutoriales, etc. Que en la actualidad a llegado a ser la fuente de trabajo de millones de personas. También, Google mediante YouTube analiza tus intereses por lo que su algoritmo desarrolla sugerencias según tus búsquedas. Una creación que en la actualidad se considera como la mejor es la Asistente de Google llegando a superar al asistente de distintas marcas como Apple, Samsung o Amazon. La asistente de Google fue ganando popularidad con los años ya que ofrece facilitar al usuario distintas tareas como alarmas, calendarios, recordatorios, reproducción de música, llamadas, búsquedas en internet, etc. Actualmente y durante la cuarentena nuestro método de información y comunicación fue por medio de internet sobrepasando incluso las llamadas telefónicas o la televisión. Las personas nos dimos cuenta que no necesitábamos más que internet y un equipo con acceso a él para poder seguir comunicados e incluso trabajando.

Google tiene un registro de datos bastante amplio de sus usuarios y ha tenido diversos inconvenientes por su abuso a la privacidad como lo fue la reciente demanda por 5.000 millones donde “La denuncia sostiene que cuando un usuario opta por la navegación privada, la empresa utiliza otras herramientas de seguimiento que proporciona a los editores y anunciantes para controlar qué sitios web visita el usuario. Alphabet.Inc utiliza a todas sus empresas bajo google con el fin de obtener así información de sus usuarios. De hecho, Google recopila información de todos tus contactos en Google Meet, Gmail, YouTube, etc., y la relación entre estos forman una intrincada red de usuarios. Cabe recalcar que Google no solo tiene la información sobre lo que buscamos sino que también en que damos click, es decir los resultados.

“Google rastrea y recopilar el historial de navegación de los consumidores y otros datos de actividad en la web, independientemente de las medidas de protección que los consumidores adopten para proteger la privacidad de sus datos”

[2] Vega, G., & M.C.M. (2020, 3 junio). Google afronta una demanda de 5.000 millones por recolectar datos de usuarios en modo incÃ3gnito. EL PAÍS. https://elpais.com/tecnologia/2020-06-03/google-afronta-una-demanda-de-5000-millones-por-recolectar-datos-de-usuarios-en-modo-incognito.html

Actualmente existen grandes controversias sobre si Google manipula nuestras vidas de forma inconsciente, muchos relacionan esto por las sugerencias en búsquedas, como en YouTube, en películas, restaurantes, etc. Como sabemos al acceder a crear una cuenta ya sea YouTube o Gmail nosotros proporcionamos de forma voluntaria nuestra información e incluso en Google se ha popularizado las compras por internet y es donde nosotros incluimos nuestros datos bancarios, etc. Google tiene acceso a los datos personales de millones de personas y gracias a ello y a nuestros diferentes movimientos en sitios web, Google puede saber nuestro comportamiento rutinario, nuestros gustos por lo que vemos, oímos o compramos, lo que decimos y hasta donde acostumbramos ir o estar. No es de extrañar que los usuarios nos encontremos en una posición de vulnerabilidad actualmente cuando la sociedad está cambiando a una era más tecnológica.

Es por esto que es importante resaltar la importancia de la IA para lograr los estándares donde se encuentra actualmente Alphabet.Inc. Como empresa buscan aprovechar los datos adquiridos de sus usuarios en su almacenamiento y sus análisis de datos para así lograr el dominio en los diferentes campos ya sea salud, telecomunicación, web, etc. Alphabet.Inc como las diversas empresas tecnológicas están avanzando sin parar hacia el futuro, involucrándose en los diferentes campos. En la actualidad muchas personas recurren a revisar sus síntomas en caso de enfermedad obteniendo diagnósticos a un solo click y totalmente gratis. Si bien es cierto la tecnología ayuda a las personas en la actualidad en múltiples tareas facilitando la vida de los usuarios y es algo cierto que la era tecnológica va creciendo y ahora Google es la empresa que sabe cómo aprovechar su recopilación y manejo de datos, sin embargo, se debe llegar a un acuerdo sobre la privacidad en cuanto a datos y dar a conocer estas alternativas de privacidad forma más global para que las personas se sientan seguras con su interacción con internet. Sin duda, Alphabet.Inc y todas sus empresas ven hacia el futuro, ofreciendo más facilidad a los usuarios, sin embargo, al ser una empresa que tiene acceso a la información personal de todos sus usuarios y al manipular información privada del mundo puede llegar a generar grandes coyunturas ya que tenemos que tomar en cuenta que bajo Google están las principales empresas de uso diario de las personas lo que le brinda un gran poder sobre nosotros, nuestros datos, localización y lo que buscamos, es por ello que se debe buscar llevar las cosas de forma más responsable con sus usuarios para generar una gran relación en cuanto a quien maneja nuestros datos y no se llegue a grandes controversias como han ido pasando hasta la actualidad.

 Bibliografía:

H.W. (2021, 1 septiembre). Alphabet.Inc quiere liderar el sector salud utilizando su dominio en el análisis de datos. ESIC. https://www.esic.edu/rethink/tecnologia/alphabet-quiere-liderar-el-sector-salud-utilizando-su-dominio-en-el-analisis-de-datos

Nieto, N. (2014, 19 febrero). Google crea Google Capital para invertir en empresas. ComputerHoy. https://computerhoy.com/noticias/internet/google-crea-google-capital-invertir-empresas-9382

[1]R. (2018, 26 septiembre). Dos décadas de Google: los hitos que han hecho al gigante de internet tal y como lo conocemos. Marketing Directo. https://www.marketingdirecto.com/digital-general/digital/dos-decadas-de-google-los-hitos-que-han-hecho-al-gigante-de-internet-tal-y-como-lo-conocemos

[2]Vega, G., (2020, 3 junio). Google afronta una demanda de 5.000 millones por recolectar datos de usuarios en modo incÃ3gnito. EL PAÍS. https://elpais.com/tecnologia/2020-06-03/google-afronta-una-demanda-de-5000-millones-por-recolectar-datos-de-usuarios-en-modo-incognito.html

El Big Data de Apple Inc.

La innovación tecnológica se enfoca cada vez más en el estudio humano y en la recolección masiva de datos a medida de que se necesita conocer más al usuario y sus necesidades. Apple INC; es una empresa que se ha venido dedicando a este proceso ya varios años; empresa la cual se ha desarrollado en el mercado de la venta y desarrollo de tecnología; por ello es destacable presentar su caso. El progreso tecnológico de Apple ha sido muy destacable en el mundo de la tecnología llegando a tener mucha información de sus clientes para poder innovar cada vez más y brindar un servicio efectivo a sus clientes. La amplitud de la empresa ha llegado a todo el mundo y sus medios de comercialización son por medio de tiendas físicas y mediante internet, donde han logrado hacer que sus productos lleguen a todo el mundo. A continuación, se presentarán las formas y los desafíos que Apple ha tenido que pasar para llegar a ser una de las empresas con mayor impacto comercial tecnológico del mundo. 

Apple INC; es una multinacional que se dedica a la producción y comercialización de tecnología en el mundo, la empresa apareció en 1976 gracias a Steve Jobs y Steve Wozniack. En un inicio se dedicaban a la producción de ordenadores siendo pioneros de la empresa; siguiendo con este enfoque de mercado durante al menos 10 años, hasta que con la entrada del año 2000 la tendencia de producción comenzó a cambiar y comenzaron a ampliar su producción.(Biografía, 2017) En el año 2001 las nuevas tendencias tecnológicas avanzaron ampliando así sus horizontes y comenzaron a hacer nuevos productos de tecnología; entre los que más se destacan se encuentra el IPod junto con el sistema operativo OS X, ya que la era digital tendría un nuevo enfoque de simplificar acciones, ya que con este podrías almacenar tus fotos, videos y música en un mismo dispositivo. (Historia, 2021) Pocos años después en el 2007 aparece el famoso Iphone, el cual ha sido uno de sus productos insignia y ha sido además el que más ventas ha tenido en la historia de la compañía. Junto con esto, en el 2015 aparece el Apple Watch siendo este otro cambio de mercado y de producto objetivo que Apple decide realizar; siendo este aún más importante debido a que fue la cara para continuar con el desarrollo de la digitalización del mundo. 

El procesamiento de datos masivos hoy en día es uno de los principales medios de innovación para las empresas, ya que de esta manera logran conocer como está actuando su consumidor y de esta manera innovan sus métodos de trabajo para así lograr brindar un servicio eficaz y volver de esta manera aún mas sencillo el mundo tecnológico. Apple Inc, es una de las empresas que mejor maneja el procesamiento de datos, de tal forma que ha sido de ayuda para la creación de nuevos productos y también para la colaboración de proyectos con empresas de diferentes índoles en principal de la medicina. Sin embargo, hay que recordar que Apple en un inicio no tenía todo el conocimiento necesario para ser un ícono tecnológico; por ello se analizará los medios en los que la empresa se ha venido desarrollando a lo largo de los años en el mundo de la Big Data. Por lo que ellos decidieron innovarse y entrar en la grande competencia del manejo de datos para no quedarse atrás dentro de esta carrera tecnológica.

En un inicio para Apple el desarrollo de la Big Data fue todo un reto; la competencia tecnológica comenzaba a entrar en auge, donde empresas como Google y Sony ya tenían cierta experiencia en el manejo de la Big Data. (Historia, 2021) Todo esto gracias a que no tenían sistemas de procesamiento de información, si no que personas expertas en el caso se encargaban de la recopilación de datos, las cuales evidentemente no lograban cubrir las exigencias del mismo. (Marr, Linkedin , 2015) Pero sin mucha demora apple consiguió ser uno de los principales desarrolladores y procesadores de tecnología en el mundo; gracias a su gran impacto en el mercado de teléfonos moviles en el 2007, consiguieron expandir ampliamente su mercado y así inició la recopilación de información masiva. Previamente se habían venido realizando estudios para mejorar el desempeño del Ipod, ya que este era un producto muy eficaz para la reproducción de multimedia, pero vieron que tenía ciertas limitantes; ya que la tendencia apuntaba a que se compraba un Ipod y aparte un celular de otra marca. Ante esto, Apple decidió simplificar de cierta forma este proceso, al crear su producto insignia, lo cual les signficó un éxito rotundo ya que gracias a este, Apple se convirtió en la primera empresa en ganar 1 billón de dólares en ventas. (Lee, 2018)

A medida que la empresa iba ganando más experencia en el manejo de información, se volvieron más competitivos, y supieron desarrollar de manera eficaz nuevos productos que ayudarían a cumplir con sus objetivos; la búsqueda de la simplicidad y conexión completa entre todos sus dispositivos. Ellos buscaban que la conectividad entre los diferentes productos de apple sea una herramienta para que las personas se encuentren más conectadas. Por ello con el desarrollo de la nube (Icloud); ellos se vieron capaces de desarrollar un espacio para el mejor desarrollo de tecnología y el paso de información a través de este medio. (Apple, Apple, 2021) La competencia siempre ha sido una cuestión que preocupación para las grandes empresas, sin embargo Apple siempre ha estado un paso adelante; y además otra complicación que la empresa ha sabido solucionar de manera eficaz ha sido el desarrollo de tecnología como tal, ya que comprtir información entre diferentes dispositivos fue un reto que supieron sobrepasar eficientemente. 

El uso y manejo del análisis de datos en la empresa fue un factor que ayudó a la misma a que esta de desarrolle de manera muy efectiva. Apple ha venido innovando sus productos y sus servicios en base al criterio de sus clientes; todo esto gracias a la evaluación que estos realizan mediante sus productos para comentar acerca de su experiencia con los sistemas operativos. Además, apple siempre está recolectando información de manera contínua como parte del funcionamiento de los equipos. (Marquez, 2015)  Esta información ha ayudado a crear las diferentes versiones de Iphone para diferentes mercados y clientes (Iphone 11, Iphone 11 pro MAX), viendose un beneficio mutuo en tema de ganancias y desarrollo de tecnología. Otro beneficio del procesamiento de datos ha sido el apoyo al medio ambiente por parte de la empresa ya que la digitalización de los datos han sido una ayuda a bajar los niveles de contaminación, viendose así un beneficio indirecto del manejo de datos por parte de la empresa. Se conoce que Apple realiza solicitudes a sus clientes para que ayude a generar mejoras en sus productos, esto se realiza de manera anónima y además también se recopilan datos acerca del uso de los productos. Como caso específico el apple watch, con el cual se ha evaluado de una manera más directa al usuario. Y con este producto se destaca un caso específico; donde en 2015 se realizó un convenio entre Apple e IBM para generar un estudio acerca de la salud de los usuarios que posean apple watch, para de esta manera generar alternativas de consumo de alimentos que ayuden a que el usuario tenga mejor actividad. (Marr, Tech target, 2015) Todo esto, basandose en la información recopilada por parte de los relojes. 

            La inteligencia artificial también ha jugado un papel muy importante en el desempeño eficaz de Apple, ya que gracias a Siri, ellos han sido capaces de llenarse de mucha información valiosa de los clientes ahora de una manera aún más sencilla. Ya que Siri es una aplicación que es capaz de escuchar la información que se esta buscando o hablando, y en base a códigos la aplicación siempre va a tratar de ayudar con el manejo de la misma. (Apple, Apple, 2021) Además, de que siri como tal tiene acceso a mucha información de la web, por lo que cuando se realiza una búsqueda, siempre se da a conocer información válida sobre el producto o tema que se quiera proporcionar. Otra virtud de siri es que puede manejar el equipo mediante el control por voz, dado que tiene este sistema de reconocimiento auditivo y la total libertad para navegar dentro del celular para de esta manera agilitar los procesos de búsqueda o cual sea la actividad requerida por el usuario. (Marr, Tech target, 2015) El manejo de este sistema ha hecho que Apple se vuelva una empresa muy cotizada por la simplicidad de sus productos y el facil manejo de los mismos, ya que el sistema operativo y el alcance de información es muy sencillo de manejar por parte de los usuarios. Esto ha generado que cada vez más se busque mejorar el producto como tal y así brindar una mejor experiencia del mismo a los usuarios y hasta de una manera, volver a estos dependientes de la marca para que se automaticen sus actividades, ya que al día de hoy existe un producto Apple para todas las actividades; siendo esto un beneficio muy importante para la empresa; por ello es que la empresa cada vez conoce más a sus clientes y se crea una relación entre la marca y el consumidor que hace que se genere empatía en la compra; siendo este un factor importante para sus ventas. 

El desarrollo tecnologico siempre impulsará a la innovación y al cambio en el proceso de obtención de datos. Las nuevas tecnologías ocuparan un nuevo campo de trabajo en donde el que sepa manejarlas de mejor manera será el más exitoso. Apple va en un buen camino con el manejo y procesamiento de datos; el cual ha sido de mucha ayuda para que ellos alcancen el éxito que tienen hoy en día, tanto para el desarrollo de nuevos productos, la innovación de las diferentes plataformas, la busqueda de conectividad y simplificación de actividades y procesos, entre otros más usos que se han observado que la información que proporcionan los usuarios es muy valiosa. Queda mencionar que cada vez se buscará mejorar el sistema tecnológico para que de esta manera los productos hagan del día a día una experincia mucho más comoda y amigable. Y sin duda Apple Inc, es una de las empresas que mejor está acoplandose a este mundo de cambios constantes. 

Bibliografía

Apple. (2021). Apple. Obtenido de Apple at work: https://www.apple.com/es/business/ 

Apple. (2021). Apple. Obtenido de Compartir información de análisis, diagnóstico y uso con Apple : https://support.apple.com/es-mx/HT202100 

Biografía, H. (11 de 2 de 2017). Historia- Biografía. Obtenido de Historia de Apple: https://historia-biografia.com/historia-de-apple/ 

Historia, C. (7 de 1 de 2021). Curiosfera. Obtenido de Historia de Apple – Origen y creador: https://curiosfera-historia.com/historia-de-apple/

Marr, B. (22 de 5 de 2015). Tech target. Obtenido de Cómo Apple usa Big Data para impulsar el éxito: • https://www.datasciencecentral.com/profiles/blogs/how-apple-uses-big-data-to-drive-success

Lee, D. (27 de 9 de 2018). BBC NEWS MUNDO. Obtenido de Apple-I: cómo era el primer modelo de computadora fabricado por Apple (que acaba de venderse por US$375.000) : https://www.bbc.com/mundo/noticias-45666192 

Marquez, J. V. (2015). Academia. Obtenido de Análisis estratégico de la empresa apple inc.: • https://www.academia.edu/16551632/An%C3%A1lisis_Estrat%C3%A9gico_de_APPLE_Inc

Marr, B. (15 de 4 de 2015). Linkedin . Obtenido de Apple & IBM Team Up For New Big Data Health Platform : https://www.linkedin.com/pulse/apple-ibm-team-up-new-big-data-health-platform-bernard-marr/

Walmart y el Big Data

Walmart es una de las empresas más grandes y poderosas del mundo. La multinacional americana funciona como una cadena de hipermercados que genera ingresos millonarios cada semana; pues, al vender productos al por menor, Walmart tiene un éxito inigualable a escala mundial. El lema de la empresa está enfocado en “ahorrar dinero y vivir mejor”; y según BBVA (2018) dicha cadena “tiene 20.000 tiendas en 28 países”. La sede principal de Walmart está ubicada en Bentonville, Arkansas, pero la compañía no opera solamente en Estados Unidos sino también en Canadá, México, Chile, Brasil, Argentina y Centroamérica. Además, la multinacional es conocida como “Asda” en el Reino Unido, “BestPrice” en India y como  “GrupoSeiyu” en Japón. Por otro lado, Walmart también se maneja mundialmente por medio de los almacenes conocidos como Sam’s Club, los cuales son una extensión de la cadena.

La mente maestra detrás de Walmart es Sam Walton, quien inauguró la primera tienda en 1962. Sin embargo, para alcanzar el éxito que lo caracteriza, Walton tuvo que sobrepasar varios obstáculos; comenzando por el hecho de que nació en una familia humilde. Cerca de 1942 Walton se enlistó para ir a la guerra, pero regresó a casa en 1945 y fue ese mismo año cuando abrio su primera tienda departamental. Cinco años más tarde, se mudo a Arkansas parar abrir “Walton’s 5&10”. (Diario de Finanzas. s/p. 2020). Esta tienda ofrecia precios realemente bajos y eso aseguró su rapido éxito. En 1962 el socio de Walton, Bob Bogle, le sugirió cambiar el nombre de la empresa, y así es como surgió el -ahora- mundialmente conocido “Walmart”; título que nace gracias a un juego de palabras entre el apellido de Sam Walton (walt) y la palabra mercado en inglés (mart).

Ahora bien, ¿qué sabemos sobre Walmart y su relación con el Big Data[1]? Pues, la cadena de hipermercados lo utiliza de diversas maneras aprovechando los beneficios que el análisis de datos otorga a su empresa. Walmart tiene un amplio ecosistema de big data el cual, todos los días, procesa múltiples terabytes de datos nuevos y petabytes de datos históricos. (ProjectPro. s/f).  Los sistemas de análisis que posee Walmart analizan aproximadamente 100 millones de palabras clave diariamente; pues, el objetivo principal del big data en Walmart “is to optimize the shopping experience for customers when they are in a Walmart store, or browsing the Walmart website or browsing through mobile devices when they are in motion.” (ProjectPro. s/f). El Big Data en Walmart permite que la empresa tenga un contacto directo con el cliente por medio de aplicaciones como Savings Catcher; la cual alerta a los clientes cuando el supermercado competidor reduce el costo de un artículo que ese cliente ya compró. La aplicación envía un cupón de regalo al cliente para compensar la diferencia de precio y así no llamar su atención para que continúe comprando siempre en Walmart.

De igual manera, la multinacional utiliza el big data en el área de farmacia realizando simulaciones que descubren cuántas prescripciones médicas se reciben diariamente para identificar el tiempo más ajetreado durante un día o un mes. (Walmart Staff. 2017. s/p). Por otro lado, Walmart está testeando cómo utilizar big data para mejorar la experiencia del ‘checkout’ en las tiendas “by using predictive analytics, stores can anticipate demand at certain hours” (Walmart Staff. 2017. s/p). Al hacer esto, se puede incluso determinar cuantos cajeros necesitan estar presentes en un día y hora específicos. Asimismo, Walmart utiliza simuladores para comprender y rastrear el recorrido de su mercancía, desde el muelle hasta la tienda; optimizando rutas y minimizando la manipulación de productos antes de que estos lleguen al cliente[2]. (Walmart Staff. 2017. s/p). Por medio del análisis de datos, Walmart reconoce preferencias y patrones de compra de los clientes; y así, la compañía puede “accelerate decision-making on how to stock store shelves and display merchandise”. (Walmart Staff. 2017. s/p). Ergo, el análisis de big data proveé una mirada interna de los productos y de las marcas que más benefician a la compañía. Finalmente, el análisis de datos permite que Walmart identifique las preferencias de los compradores para desarrollar una experiencia de compras personalizada y encantadora. (Walmart Staff. 2017. s/p).

Como vemos, Walmart utiliza la minería de datos para descubrir patrones en las ventas, y un ejemplo conocido de aquello fue cuando la empresa descubrió que las ventas de tartas de fresa aumentaron 7 veces antes de un huracán. (ProjectPro. s/f). Walmart rastrea a cada consumidor individualmente recopilando información sobre lo que compran, dónde viven y cuáles son los productos que más les gusta. Walmart está aprovechando los datos de las redes sociales para conocer los productos que están de moda y así exhibirlos en las tiendas.

En conclusión, se puede demostrar que Walmart, al ser una empresa tan poderosa a nivel mundial hace uso del big data de manera eficiente y beneficiosa para su crecimiento. El objetivo que busca Walmart al utilizar big data es conocer a sus clientes, entenderlos y ofrecerles lo que buscan de manera eficiente y cómoda. Al ser una empresa tan grande, Walmart tiene muchas problemáticas por resolver con el apoyo de big data, y han implementado un departamento eficaz que permite a la compañía abordar cada problemática por medio del análisis de datos. Los desafíos que ha demostrado tener Walmart es principalmente la competencia de otros supermercados que ofrecen precios bajos a sus clientes; sin embargo, se han ideado maneras de enfrentarlos -justamente- gracias al big data. Hoy por hoy Walmart conoce a sus clientes por redes sociales, principalmente, pero también por supuesto por patrones de comportamiento en las compras, horarios, y productos que se adquieren. Ha quedado entonces claro que Walmart es una empresa que usa efectivamente el big data.

Bibliografía:

BBVA. (2018) “Tres multinacionales explican cómo el ‘big data’ revolucionó su negocio”. Big Data. Septiembre, 10. Tomado de: https://www.bbva.com/es/tres-multinacionales-explican-big-data-revoluciono-negocio/

Diario de Finanzas. (2020). La historia detrás de Walmart: ¿por qué la tienda se llama así? Octubre, 18. Tomado de: https://eldiariodefinanzas.com/la-historia-detras-de-walmart-por-que-la-tienda-se-llama-asi/

ProjectPro. (2021). “How Big Data Analysis helped increase Walmarts Sales turnover?”. Enero, 25. Tomado de: https://www.dezyre.com/article/how-big-data-analysis-helped-increase-walmarts-sales-turnover/109Walmart Staff. (2017). “5 Ways Walmart Uses Big Data to Help Customers.” Agosto, 17. Tomado de: https://corporate.walmart.com/newsroom/innovation/20170807/5-ways-walmart-uses-big-data-to-help-customers


[1] “Big Data (…) describe el gran volumen de datos, tanto estructurados como no estructurados, que inundan los negocios cada día”. (PowerData. s/f). Pero lo importante del big data no es la cantidad de datos que se consiguen sino lo que las empresas deciden hacer con ellos posteriormente. De allí surge el beneficio que puede otrogar el big data si este es bien manejado.

[2] De igual manera, el big data colabora, en este caso, para minimizar costos y organizar horarios de transportes.

La era de la Información

Photo by Pixabay on Pexels.com

La revolución industrial marcó un punto de inflexión en la historia económica, hubo un cambio del estancamiento económico de varios siglos hacia el crecimiento sostenido de la renta per cápita y una mejora en los estándares de la sociedad y de la calidad de vida.

Este cambio sin precedentes significó que, por ejemplo, el PIB per cápita en los Estados Unidos creciera en casi un 50% en medio siglo. A pesar de que se trata de un enorme incremento, por otro lado, el PIB per cápita aumentó en la misma cantidad, en la mitad del tiempo a partir de 1980, impulsado en parte por la proliferación de las tecnologías digitales. Estas cifras confirman el alcance y la velocidad del efecto de la revolución digital en la sociedad, la última revolución que está cambiando y seguirá cambiando las estructuras de la economía tal como la conocemos, y hacen evidente que estamos viviendo la “Era de la Información”. (Vidal, 2015)

Los indicadores económicos confirman que, al igual que la revolución industrial generó una aceleración de la economía mundial durante los siglos 19 y 20, la revolución digital está generando la siguiente aceleración. “Estamos viviendo en la era de la información”

Al vivir en esta era, se observa permanentemente como terabytes o petabytes de datos se vierten en nuestras redes informáticas, en el internet y los dispositivos de almacenamiento de datos todos los días: de negocios, de información social, de ciencia e ingeniería, de medicina, y de casi todos los demás aspectos de la vida diaria. Este crecimiento explosivo del volumen de datos disponibles es el resultado de la informatización de nuestra sociedad y el rápido desarrollo de potentes herramientas de almacenamiento de datos. (Han, Kamber, & Pei, 2012)

Sin embargo, este crecimiento exponencial en la cantidad de la información que hoy en día se genera, representa para las empresas, algunas consecuencias importantes. En primer lugar, tienen que focalizar la atención, es decir asegurarse que las personas se centran en el conjunto adecuado de temas, evitando la distracción que se puede generar por la abrumadora cantidad de información. En segundo lugar, las empresas tienen que conseguir el equilibrio adecuado entre la información y el juicio para tomar decisiones importantes, Jeff Bezos, fundador y CEO de Amazon, observó que existen dos tipos de decisiones: “Las que se pueden tomar por análisis, y las que se deben tomar en base al juicio y la intuición”. (Birkinshaw, 2014)

Por tanto, en la era de la información, los profesionales más exitosos serán aquellos que inteligencien de mejor manera la información y favorezcan la acción sobre el análisis y aprovechando la intuición y el sentimiento en combinación con el análisis racional.

Bibliografía

Birkinshaw, J. (1 de Junio de 2014). Beyond the Information Age. Obtenido de Wired: https://www.wired.com/insights/2014/06/beyond-information-age/

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Vidal, A. (9 de Julio de 2015). The digital era and its role in the economy. Obtenido de CaixaBank Research: http://www.caixabankresearch.com/en/-/la-era-digital-y-su-papel-en-la-economia-d2

Método de Asociación – Algoritmo Apriori

Los métodos de asociación o relación son probablemente las técnicas de minería de datos más conocidas, familiares y sencillas. Normalmente, se hace una correlación simple entre dos o más artículos, a menudo del mismo tipo para identificar patrones. Uno de los ejemplos más conocidos, es el análisis del   de compras, analizando los hábitos de compra de la gente, es posible identificar que un cliente siempre compra crema chantilly cuando compra fresas, por lo tanto, se puede predecir que la próxima vez que compre fresas también podría comprar crema chantilly. (Brown, 2012)

Estas técnicas son utilizadas para encontrar conjuntos de elemento frecuentes en los grandes conjuntos de datos. Este tipo de hallazgos ayuda a las empresas a tomar ciertas decisiones, como: el diseño de catálogos, marketing cruzado y el análisis de comportamiento de compra de los clientes. Los algoritmos de reglas de asociación deben ser capaces de generar reglas con niveles de confianza menores a uno. Sin embargo, el número de posibles reglas de asociación para un determinado conjunto de datos es generalmente muy grande y una alta proporción de las reglas son generalmente de poco valor, si existen. (Ramageri, 2010)

A priori es un algoritmo pionero, propuesto por R. Agrawal y R. Srikant en 1994 para minar conjuntos de elementos. El nombre del algoritmo está basado, en que usa el conocimiento preliminar (a priori) de las propiedades frecuentes de los conjuntos de elementos. (Han, Kamber, & Pei, 2012)

El algoritmo Apriori no analiza patrones, sino que genera y cuenta conjuntos de elementos candidatos. Un elemento puede representar un evento, un producto o el valor de un atributo, dependiendo del tipo de datos que se analice. Las variables booleanas, que representan un valor Sí/No o Existe/Falta, se asignan a cada atributo, como un nombre de producto o evento. Como se mencionó previamente, un análisis de carro de compras es un ejemplo de un modelo de reglas de asociación que utiliza variables booleanas para representar la presencia o ausencia de determinados productos en la cesta de la compra de un cliente. (Microsoft, 2015)

Para cada conjunto de elementos, el algoritmo crea puntuaciones que representan el soporte y la confianza. Estas puntuaciones se pueden usar para clasificar y derivar reglas interesantes de los conjuntos de elementos. Los modelos de asociación se pueden crear también para atributos numéricos. Si los atributos son continuos, los números se pueden transformar en números discretos o agruparse, y luego los valores de datos discretos se pueden tratar como booleanos o como pares atributo-valor. (Microsoft, 2015)

Para analizar y establecer los valores el algoritmo crea combinaciones con los conjuntos de ítems a ser analizados, por ejemplo, si se requiere analizar una base 10 productos, para extraer las reglas se debe realizar combinaciones de estos productos, esto sería 1024 posibles combinaciones, para 20 serian 1,048,576 posibles combinaciones. Por tanto, este algoritmo tendría una complejidad exponencial. (Pitol, 2014)

El algoritmo Apriori consta de dos pasos:

  1. Generación de combinaciones frecuentes: cuyo objetivo es encontrar aquellos conjuntos que sean frecuentes en la base de datos.
  2. Generación de reglas: a partir de los conjuntos frecuentes se generan reglas.

Donde, el índice para la generación de combinaciones se llama soporte y el índice para la generación de reglas se llama confianza. Para el modelo se deberán establecer valores mínimos para los índices de soporte y confianza. (Pitol, 2014)

Bibliografía

Brown, M. (11 de Diciembre de 2012). IBM Developer Network. Obtenido de IBM: http://www.ibm.com/developerworks/library/ba-data-mining-techniques/

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Microsoft. (2015). Microsoft Developer Network. Obtenido de https://msdn.microsoft.com/en-us/library/ms174949.aspx

Pitol, F. (4 de Mayo de 2014). Reglas de asociación, algoritmo apriori. Obtenido de Blog de Inteligencia Artificial: http://ferminpitol.blogspot.com/2014/05/reglas-de-asociacion-algoritmo-apriori.html

Ramageri, B. (2010). Data Mining Techniques And Applications. Indian Journal of Computer Science and Engineering, 1(4), 301-305.

Métodos de Partición

La versión más simple y fundamental de los métodos de segmentación son los métodos de partición, estos organizan los objetos de un conjunto en varios grupos exclusivos o clústers. En estos métodos el número de grupos se da como el conocimiento previo, siendo este parámetro es el punto de partida para los métodos de partición. Normalmente el número de clústers tendrá la nomenclatura “k”. (Han, Kamber, & Pei, 2012)

Los clústers se forman para optimizar un criterio de partición objetivo, tal como una función de disimilitud basado en la distancia, de modo que los objetos dentro de un grupo son similares entre sí y diferentes a los objetos en otros grupos en términos de los atributos del conjunto de datos. (Han, Kamber, & Pei, 2012)

En las áreas de marketing y gestión de relaciones, estos algoritmos utilizan los datos del cliente para realizar un seguimiento del comportamiento del cliente y crear iniciativas estratégicas de negocio. Las organizaciones pueden dividir de este modo a sus clientes en segmentos basados en variantes como la demografía, el comportamiento del cliente, la rentabilidad del cliente, medida de riesgo, y el valor de vida del cliente o una probabilidad de retención. (SAP, 2016)

Existen 2 técnicas principales dentro de los métodos de partición:

  • Técnicas basadas en Centroides
  • Técnicas basadas en un Objeto Representativo

k-Means: Técnica Basada en un Centroide

Posiblemente la técnica más popular de segmentación, k-means agrupa n observaciones o registros en k agrupaciones en las que cada observación pertenece a la agrupación con el centro más cercano. La agrupación funciona para agrupar los registros juntos de acuerdo a un algoritmo o fórmula matemática que intenta encontrar centroides, o centros, en torno al cual gravitan registros similares. (Thirumuruganathan, 2010)

El algoritmo se compone de los siguientes pasos:

  1. Elige aleatoriamente k artículos y los determina como los centroides iniciales.
  2. Para cada punto del set de datos, busca el centroide más cercano y asigna el punto al clúster asociado con el centroide más cercano.
  3. Actualiza el centroide de cada grupo sobre la base de los elementos de esa agrupación. El nuevo centroide será el promedio de todos los puntos de la agrupación.
  4. Repite los pasos 2 y 3, hasta que ninguno de los puntos cambia de clúster.

k-Medoids: Técnica Basada en un Objeto Representativo

La técnica k-means es muy sensible a los valores atípicos, ya que estos pueden estar muy lejanos de la mayoría de los puntos; y, por tanto, distorsionar el valor medio del clúster. Este efecto, puede de manera inadvertida cambiar la asignación de los otros datos, durante el proceso de segmentación. (Han, Kamber, & Pei, 2012)

La técnica k-medoids busca corregir está desviación que puede generarse; y, propone en lugar de determinar un punto medio para calcular la distancia entre los puntos, tomar como punto medio uno de los datos dados, un objeto representativo, que actuará como centroide, y el resto de los datos es asociado al clúster en función de la distancia con el centroide.  (Han, Kamber, & Pei, 2012)

De la misma manera que en la técnica k-means, el objeto representativo que actuará como centroide es elegido arbitrariamente, e iterativamente se van tomando todos los posibles objetos para actuar como centroides, y se repite hasta que al variar los centroides la sumatoria de las distancias de los puntos con los centroides no pueda optimizarse. (Han, Kamber, & Pei, 2012)

El algoritmo se compone de los siguientes pasos:

  1. Elige aleatoriamente k artículos y los determina como los centroides iniciales.
  2. Para cada punto del set de datos, busca el centroide más cercano y asigna el punto al clúster asociado con el centroide más cercano.
  3. Actualiza el centroide de cada grupo sobre la base de los elementos de esa agrupación. El nuevo centroide será cualquier otro de los puntos de la agrupación, escogido aleatoriamente.
  4. Calcular sumatoria de las distancias de los puntos con los centroides
  5. Repite los pasos 2, 3 y 4 hasta que el valor mínimo de la sumatoria no pueda optimizarse.

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Man, I. (11 de Junio de 2015). Cross Validated. Obtenido de http://stats.stackexchange.com/questions/156210/difference-between-k-means-and-k-medoid

SAP. (2016). SAP Hana Predictive Analysis Library. Obtenido de k-Means: http://help.sap.com/saphelp_hanaplatform/helpdata/en/53/e6908794ce4bcaa440f5c4348f3d14/content.htm

Sensation. (02 de Febrero de 2013). K-Medoids. Obtenido de Sensation Data And Knowledge Engineering / Hodgepodge: http://sens.tistory.com/297

Thirumuruganathan, S. (25 de Enero de 2010). K-Means Clustering Algorithm. Obtenido de https://saravananthirumuruganathan.wordpress.com/2010/01/27/k-means-clustering-algorithm/

Método de Jerarquización

Los métodos de jerarquización buscan segmentar los datos en jerarquías o árboles de clústers. La representación de los datos de una manera jerarquizada, es útil para resumir y visualizar los datos. Si bien estos métodos segmentan la información de una forma jerarquizada, la data puede no estarlo y no tener una relación evidente de jerarquización, los datos tienen una estructura jerárquica subyacente que es la que se pretende descubrir. (Han, Kamber, & Pei, 2012)

Los métodos de agrupamiento jerárquico pueden encontrar dificultades en cuanto a la selección de los puntos de fusión o los puntos de división. Estas decisiones son críticas, porque una vez que un grupo de objetos se fusiona o se separan, el proceso en el paso siguiente operará en los clústers generados. El proceso no deshará lo realizado previamente, ni llevará a cabo el intercambio de objetos entre los clústers. Por lo tanto, las decisiones de fusión o división, si no está bien elegidas, pueden dar lugar a clústers de baja calidad. Por otra parte, los métodos no se escalan bien, porque cada decisión de fusión o escisión necesita examinar y evaluar muchos objetos o clústers. (Han, Kamber, & Pei, 2012)

Los métodos de agrupamiento jerárquico pueden ser: de aglomeración o de división, dependiendo de si la descomposición jerárquica se generar de abajo hacia arriba (aglomeración) o arriba hacia abajo (división). (Han, Kamber, & Pei, 2012)

Método de Jerarquización Aglomerativo

Un método de agrupamiento jerárquico de aglomeración utiliza una estrategia de abajo hacia arriba. Por lo general comienza por dejar que cada objeto forme su propio clúster y de forma iterativa fusiona los clústers en grupos cada vez más grandes, hasta que todos los objetos están en un solo grupo o ciertas condiciones de terminación están satisfechas. El clúster único se convierte en la raíz de la jerarquía. El proceso de fusión integra los dos grupos que están más cerca entre sí, de acuerdo con alguna medida de similitud, y combina los dos para formar un clúster. Cada iteración fusiona dos clústers, donde cada clúster contiene al menos un objeto. (Han, Kamber, & Pei, 2012)

Método de Jerarquización Divisorio

A la inversa del método anterior, un método de agrupamiento jerárquico divisorio emplea una estrategia de arriba hacia abajo. Se inicia mediante la colocación de todos los objetos en un clúster, que es la raíz de la jerarquía. Luego se divide el clúster raíz en varios subgrupos más pequeños, y de forma recursiva las particiones de esas agrupaciones en otras más pequeñas. El proceso de partición continúa hasta que cada grupo en el nivel más bajo es coherente suficiente, ya sea que contiene sólo un objeto o los objetos dentro de un grupo son suficientemente similares entre sí. (Han, Kamber, & Pei, 2012)

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Método de Segmentación (Clustering) basado en Densidad

Los métodos de partición y jerarquización están diseñados para encontrar clúster de forma esférica, sin embargo, estos tienen dificultad para encontrar clústers que se presentan con formas arbitraria como la forma de “S” u ovales. Con datos de esta naturaleza, los métodos anteriormente descritos tienen una probabilidad alta de segmentar incorrectamente clústers cuando la distribución de los datos se presenta en formas irregulares, donde el ruido o los valores atípicos se incluyen en los grupos. (Ester, Kriegel, Sander, & Xu, 2007)

Para encontrar clúster de formas arbitrarias, se puede modelar los clústers como regiones densas en el espacio de datos, separadas por regiones dispersas. Esta es la principal estrategia detrás de la agrupación métodos basados en la densidad, lo que puede descubrir grupos de forma no esférica. (Mann & Nagpal, 2001)

La densidad de un objeto se puede medir por el número de objetos cercanos al mismo. Por tanto, los métodos basados en densidad encuentran los objetos principales, es decir, los objetos que tienen los barrios densos, y conectan los objetos principales y sus barrios para formar regiones densas, clústers. La idea clave es que por cada punto de un clúster de la zona de un radio dado tiene que contener al menos un número mínimo de objetos. La forma del clúster estará determinada por la función de la distancia entre dos objetos. (Ester, Kriegel, Sander, & Xu, 2007)

El algoritmo DBSCAN, (Cluster Espacial Basado en Densidad para Aplicaciones con Ruido), uno de los principales algoritmos de los métodos basados en densidad, requiere dos variables de entrada:

  • El radio que delimita el área del barrio de un punto (Eps)
  • El número mínimo de puntos requeridos para formar un cluster (minPts).

Los puntos principales residen en el interior del cluster, y se sitúan dentro del radio Eps y son uno de los puntos mínimos que conforman el clúster. Por otro lado, los puntos fronterizos, se sitúan en la parte exterior del clúster, aunque también están dentro del radio Eps. (Mann & Nagpal, 2001)

El algoritmo DBSCAN se compone de los siguientes pasos:

  1. Seleccionar un punto de manera arbitraria.
  2. Obtener la densidad alcanzable desde cada punto, dentro del rango Eps y MinPts todos los puntos.
  3. Si el punto analizado:
    1. Es un punto central se forma clúster.
    1. Es un punto frontero, el algoritmo visita el siguiente punto de la base de datos.
  4. Continuar el proceso hasta que todos los puntos han sido procesados

Bibliografía

Ester, M., Kriegel, H.-P., Sander, J., & Xu, X. (8 de Enero de 2007). A Density-Based Algorithm for Discovering Clusters. Obtenido de Proceedings of 2nd International Conference on Knowledge Discovery and Data Mining: http://www2.cs.uh.edu/~ceick/7363/Papers/dbscan.pdf

Mann, P., & Nagpal, P. (11 de Agosto de 2001). Comparative Study of Density based Clustering Algorithms. Obtenido de International Journal of Computer Applications: http://www.ijcaonline.org/volume27/number11/pxc3874600.pdf

Método Segmentación (clustering) basado en Grilla

Los métodos de clustering basados en grilla, difieren de otros métodos en que clusterizan la data basados en el espacio que la contiene y no en la data como tal; los clústers se generan mediante la partición del espacio en celdas, sin tomar en cuenta la distribución de la data. Este método cuantifica el espacio de objetos en un número finito de celdas que forman una estructura de grilla sobre la que se realizan todas las operaciones para la agrupación. (Borisov & Grabusts, 2002)

La principal ventaja de este enfoque es su tiempo de procesamiento rápido, que es típicamente independiente del número de objetos de datos, sin embargo, depende de sólo el número de células en cada dimensión en el espacio cuantificada. (Wang, 2015)

En general, los algoritmos de segmentación basado en grilla; típicamente constan de los siguientes cinco pasos básicos: (Borisov & Grabusts, 2002)

  1. Creación de la estructura de grilla, es decir, la partición del espacio de datos en un número finito de células.
  2. Cálculo de la densidad celular para cada celda.
  3. Clasificación de las células de acuerdo con sus densidades.
  4. Identificación de los centros de los clusters.
  5. Recorrido por los bloques vecinos.

Bibliografía

Borisov, A., & Grabusts, P. (2002). Using Grid-clustering Methods in Data Classification. Obtenido de Decision Support Systems Group Institute of Information Technology : https://www.semanticscholar.org/paper/Using-Grid-Clustering-Methods-in-Data-Grabusts-Borisov/2c9a1f9c87658c7c4ada5d01fb73cf89591fbaff/pdf

The MathWorks Inc. (2016). The MathWorks – Documentation. Obtenido de What Is the Genetic Algorithm?: http://www.mathworks.com/help/gads/what-is-the-genetic-algorithm.html?requestedDomain=www.mathworks.com

Wang, H. (1 de Noviembre de 2015). Density-Grid based Clustering Algorithms. Obtenido de http://11hcw.me/density-grid-based-clustering-algorithms-on-data-streams/

Árboles de Decisión

Un árbol de decisión es una estructura que se puede utilizar para dividir una gran colección de registros en conjuntos sucesivamente más pequeños de los registros por la aplicación de una secuencia de reglas de decisión simples. Con cada división sucesiva, los miembros de los conjuntos resultantes se vuelven más y más similares entre sí. La variable de destino es normalmente categórica y el modelo de árbol de decisión utiliza, ya sea para calcular la probabilidad de que un registro dado pertenezca a cada una de las categorías, o para clasificar el registro asignándole a la clase más probable. Los árboles de decisión también se pueden utilizar para estimar el valor de una variable continua, aunque hay otras técnicas más adecuadas para esa tarea. (Berry & Linoff, 2004)

Un árbol de decisión representa una serie de preguntas tales que la respuesta a la primera pregunta determina la pregunta siguiente. Las preguntas iniciales crean grandes categorías con muchos miembros, y las siguientes preguntas dividen las categorías generales en conjuntos más y más pequeños. Si las preguntas son bien elegidas, una serie sorprendentemente corta de iteraciones son suficientes para clasificar con precisión los registros de datos. Existen diferentes algoritmos para la elección de la prueba inicial, pero el objetivo es siempre el mismo: elegir la prueba que mejor discrimina entre las clases de objetivos. Este proceso se repite hasta que el registro llega a un nodo hoja. Todos los registros que terminan en una hoja determinada del árbol se clasifican de la misma manera. Hay un único camino desde la raíz hasta cada hoja. Ese camino es una expresión de la regla utilizada para clasificar los registros. Diferentes hojas pueden hacer la misma clasificación, aunque cada hoja pudo haber realizado la clasificación por un camino diferente. (Berry & Linoff, 2004)

El algoritmo de árboles de decisión genera un modelo de minería de datos mediante la creación de una serie de divisiones en el árbol. Estas divisiones se representan como nodos. El algoritmo agrega un nodo al modelo cada vez que una columna de entrada tiene una correlación significativa con la columna de predicción. La forma en que el algoritmo determina una división varía en función de si predice una columna continua o una columna discreta. (Microsoft, 2015)

El algoritmo de árboles de decisión utiliza la selección de características para guiar la selección de los atributos más útiles. Todos los algoritmos de minería de datos utilizan la selección de características para mejorar el rendimiento y la calidad del análisis. Si se utiliza demasiados atributos de predicción o de entrada al diseñar un modelo de minería de datos, el modelo puede tardar mucho tiempo en procesarse. (Microsoft, 2015)

Los requisitos para un modelo de árboles de decisión son los siguientes:

  • Una única columna de llave primaria: cada modelo debe contener una columna numérica o de texto que identifique cada registro de manera única. No están permitidas las claves compuestas. (Microsoft, 2015)
  • Una columna de predicción. Se requiere al menos una columna de predicción. Puede incluir varios atributos de predicción en un modelo y pueden ser de tipos diferentes, numérico o discreto. Sin embargo, el incremento del número de atributos de predicción puede aumentar el tiempo de procesamiento. (Microsoft, 2015)
  • Columnas de entrada: Se requieren columnas de entrada, que pueden ser discretas o continuas. Aumentar el número de atributos de entrada afecta al tiempo de procesamiento. (Microsoft, 2015)

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Microsoft. (2015). Microsoft Developer Network. Obtenido de https://msdn.microsoft.com/en-us/library/ms174949.aspx

Clasificación de Bayes

Los clasificadores bayesianos son clasificadores estadísticos, los cuales pueden predecir la probabilidad de que un grupo de datos (tupla) pertenezca a una clase particular. La clasificación de Bayes, está basada en el teorema de Bayes, en honor a Tomas Bayes, clérigo que durante el siglo 18 trabajó en probabilidad y teorías de decisión. Este teorema busca la probabilidad (P) que se cumpla una hipótesis (H) dado un set de datos conocidos o evidencia (X), esta probabilidad se denominara “probabilidad a posteriori” P(H/X). (Han, Kamber, & Pei, 2012)

Naive Bayes es un conjunto de algoritmos de clasificación basado en el teorema de Bayes. No es un único algoritmo sino una familia de algoritmos que comparten un principio común, donde cada característica a ser clasificada es independiente del valor de cualquier otra característica. Se los considera a los clasificadores de Bayes “ingenuos” ya que consideran cada una de estas “características” para contribuir de manera independiente a la probabilidad de que se cumpla la hipótesis, con independencia de las correlaciones entre las características. Las características, sin embargo, no siempre son independientes que a menudo es visto como un defecto de los algoritmos bayesiano y es por eso que está marcada como “ingenua” (naive). (Waldron, 2015)

A pesar de que son algoritmos relativamente simples, Naive Bayes a menudo puede superar a otros algoritmos más sofisticados y es extremadamente útil en aplicaciones comunes; es computacionalmente más liviano que otros algoritmos, y por lo tanto es útil para generar rápidamente modelos de minería para descubrir las relaciones entre datos de entrada y datos de predicción. Se utiliza este algoritmo para hacer la exploración inicial de los datos, y posteriormente se puede aplicar los resultados obtenidos para crear modelos de minería adicionales con otros algoritmos. Uno de los usos más comunes es la detección de spam y clasificación de documentos (Microsoft, 2015)

Ventajas:

  • Es sencillo de entender y construir
  • Es rápido y computacionalmente liviano
  • No es sensible a las características irrelevantes

Desventajas

  • Asume cada característica de entrada como independiente.

La siguiente tabla muestra un set de datos de 1000 frutas, la fruta puede ser un plátano, naranja o alguna otra fruta y se conocen 3 características de cada fruta, ya sea si es larga o no, dulce o no y amarilla o no, como se muestra en la tabla:

FrutaLargaDulceAmarillaTOTAL
Plátano400350450500
Naranja0150300300
Otros10015050200
Total5006508001000
Ejemplo de Clasificador Naive Bayes

Con los datos presentados, entonces se conoce que:

  • 50% son plátanos
  • 30% son naranjas
  • 20% otras frutas

Adicionalmente se puede decir:

  • De los 500 plátanos, 400 (80%) son largas, 350 (70%) son dulces y 450 (90%) son amarillas.
  • De las 300 naranjas, 0 (0%) son largas, 150 (50%) son dulces y 300 (100%) son amarillas.
  • De las 200 otras frutas, 100 (50%) son largas, 150 (75%) son dulces y 50 (25%) son amarillas.

Por lo tanto, con este set datos conocidos se obtiene suficiente evidencia para clasificar a qué clase pertenecería un siguiente fruto. Si se dice que la fruta a clasificar es larga, dulce y amarrilla; con estos datos conocidos se calcula la probabilidad que se plátano con aquellas características que se evalúan de manera independiente.

Al calcular las 3 probabilidades, se obtiene:

  • Probabilidad (plátano): 0.252
  • Probabilidad (naranja): 0
  • Probabilidad (otra fruta): 0.01875

Por tanto, basado en las probabilidades calculadas, se puede clasificar a la nueva fruta como un plátano. (Waldron, 2015)

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Microsoft. (2015). Microsoft Developer Network. Obtenido de https://msdn.microsoft.com/en-us/library/ms174949.aspx

Waldron, M. (4 de Junio de 2015). Aylien. Obtenido de Naive Bayes for Dummies; A Simple Explanation: http://blog.aylien.com/naive-bayes-for-dummies-a-simple-explanation/

Clasificación basada en Reglas

Las reglas son una buena manera de clasificar la información. Los clasificadores basados reglas utilizan un conjunto de reglas “Si-Entonces” para la clasificación. Una regla “Si-Entonces” es una expresión de la forma:

SI condición Entonces conclusión.

La parte del “Si” de la regla es conocida como el “antecedente” o “precondición”, la parte del “Entonces” es conocida como la consecuencia. La parte antecedente puede ser la prueba de uno o varios atributos, la consecuencia contiene la clase de predicción.

Las reglas clasificadoras pueden ser evaluadas en base a su cobertura y su exactitud, la cobertura está determinada por el número tuplas en las que regla satisface las condiciones antecedentes, y la exactitud está determinada por el número de tuplas que satisfacen el resultado. La siguiente tabla muestra un set de datos de 14 compradores, y contiene el rango de edad de cada comprador y si posee o no título universitario. 

#Rango EdadTítulo UniversitarioComprador
120-30nono
220-30nono
331-45nosi
446-60nosi
546-60sisi
646-60sino
731-45sisi
820-30nono
920-30sisi
1046-60sisi
1120-30sino
1231-45nosi
1331-45sisi
1446-60nono
Datos Ejemplo Clasificación Basada en Reglas

La regla 1:

Si, el comprador está en 20-30 años y tiene título universitario; entonces, es un comprador.

#Rango EdadTítulo UniversitarioComprador
920-30sisi
1120-30sisi
Datos Ejemplo Clasificación Basada en Reglas – Aplicada la Regla 1

Por tanto, al evaluar la regla 1, vemos que de las 14 entradas que tiene el set de datos, la regla solamente satisface las condiciones para 2, por tanto, la cobertura de dicha regla es 14.28% (2/14); y, por otro lado, se observa que la regla solamente predice el resultado exitosamente para uno de las dos entradas, por tanto, la exactitud de esta regla es del 100% (2/2). (Han, Kamber, & Pei, 2012)

Para clasificar la información puede existir más de una regla que satisfaga las condiciones, para estos casos, se puede aplicar, cualquiera de las siguientes dos opciones presentadas a continuación:

  • Clasificación por tamaño: consiste en asignar mayor peso a las reglas cuyo antecedente contenga más restricciones
  • Clasificación de reglas: consiste en asignar de antemano un peso para cada regla.

Cuando no existe ninguna regla que satisfaga las condiciones, se debe aplicar una regla por defecto, que predice el resultado en función de los datos de entrenamiento. Esta regla debe ser aplicada al final. (Han, Kamber, & Pei, 2012)

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.