Amazon, el gigante del análisis de datos

Cuando se habla de comercio online, es imposible obviar a “Amazon”. Pues esta compañía representa la mitad de todo el e-commerce en varias potencias mundiales. Amazon fue fundada por Jeff Bezos en 1995 y hoy en día es la empresa más grande del mundo. Esto lo ha logrado por varios puntos importantes pero la principal cosa que caracteriza a esta empresa es su enfoque en el cliente; pues Amazon afirma que es la compañía más centrada en el consumidor en el mundo. A lo largo de este ensayo se analizarán diferentes temas los cuales ayudarán a entender la trayectoria de la compañía y los hitos más importantes en los cuales destaca su originalidad y compromiso con el cliente.

Amazon empezó su trayectoria en Seattle, Washington. Desde ahí, Jeff Bezos creo una plataforma con el objetivo de vender libros online. Nunca se imaginó que 20 años después estaría en el top de las empresas mundiales. Amazon tuvo un comienzo prometedor y antes del 2000 expandió su portafolio a otros productos además de libros. Parte del éxito de Amazon empezó con la rápida adquisición de empresas como Zappos, Audible o Whole Foods en las cuales incorporó su modelo de negocio. Productos propios como Amazon Prime, Amazon Alexa o Amazon Kindle han ayudado a Amazon a expandirse a diferentes mercados con mucho éxito permitiendo un crecimiento importante. Hoy en día la compañía tiene 25 años y factura más de 200 mil millones de dólares al año.

El análisis de datos es una herramienta indispensable en los mercados actuales y más aún cuando se trata de e-commerce. El éxito de las grandes empresas se debe a decisiones que se toman día a día y la especulación a futuro se vuelve cada vez más fácil con un buen análisis de la información que se genera. Amazon es un muy buen ejemplo de esto y lo ha venido demostrando por un largo tiempo. Al ser una tienda online es indispensable tener un buen manejo de datos no solo para las decisiones internas de la empresa si no igualmente para entender al cliente y aún más con una visión centrada en el consumidor. En el siguiente contenido se incluirán diferentes ejemplos de cómo Amazon ha usado el análisis de datos para expandirse interna y externamente.

Amazon ha realizado un trabajo admirable al momento de generar conclusiones con la información que sus sistemas le proporcionan. Esta compañía ha sido capaz, como muchas otras en generar predicciones de compra. Amazon gracias a la información que su misma plataforma genera, ha logrado interpretar como y en que gastan sus usuarios. Gracias a esta información ha sido capaz de lanzar diferentes campañas de marketing que generan fidelidad a la marca y así mayores ventas. En Amazon hay más de 150 millones de cuentas activas hoy en día, esto quiere decir que la cantidad de información a interpretar es inimaginable y al analizarla se ha podido generar un motor de recomendaciones el cual según Amazon genera más del 30% de sus ventas hasta hoy. Con esta herramienta de predicción y recomendación, Amazon ha sido una de las empresas pioneras en el buen análisis de datos en su mercado.

Como se planteó anteriormente, Amazon fue capaz de utilizar el análisis de su información para generar mejor servicio y más ventas en su plataforma. No conforme con esto, hoy en día Amazon ayuda a diferentes empresas mundialmente a generar los mismos resultados usando sus análisis de datos. Esto funciona como un producto extra con el que se trabaja B2B. Amazon Web Services o AWS es una plataforma en la nube que tiene capacidades increíbles de análisis de datos. Gracias a AWS Amazon ha logrado posicionarse como una empresa innovadora y en el presente esta plataforma genera más de $10.000 millones para Amazon. Muchas empresas internacionalmente conocidas principalmente en mercados de consumo masivo trabajan con los servidores de Amazon para generar su análisis de información propia. Por esta razón se podría decir que Amazon tiene uno de los mejores análisis hoy en día ya que no importa el ámbito en el que se implemente, igual producirá información y análisis acertados.

            Otra razón por la cual el buen manejo e interpretación de información ha hecho de Amazon un ejemplo a seguir es la historia de su marca privada. En el 2007 Jeff Bezos lanzó al mercado su primera marca privada, en este momento la marca privada de Amazon genera alrededor de 7.500 millones de dólares al año y el siguiente año se espera que este valor ascienda a 25.000 mdd. Al llegar a ser exitosos vendiendo cosas ajenas, Amazon lanza sus propios productos embarcándose en un proyecto prometedor. El saber interpretar datos te lleva no solo a ver lo que se hace bien si no a descubrir que se está haciendo mal y encontrar oportunidades; esto es lo que se está haciendo con la marca privada de Amazon. Con la ayuda de su propia plataforma, la compañía intenta recomendar a sus clientes sus propios productos, así creciendo rápidamente las ventas y generando una impresionante línea de productos propios.

La ayuda que proporciona la herramienta de análisis de datos a diferentes empresas es inimaginable. Sin embargo el provecho que sacan estas diferentes compañías de la información que generan es muy variado. Es por eso que el entendimiento al consumidor se ha vuelto cada vez más importante pero no todos pueden llegar a entender y compartir con sus clientes como lo hacen las empresas con procesamiento avanzado. Amazon ha logrado entender a su cliente de manera casi perfecta y ha usado sus procesadores para generar ayuda y otra rama de negocio en otras empresas. Estos procesadores son considerados como de los mejores de todo el mundo ya que ha ayudado a una empresa centrada completamente en el cliente a generar servicios impecables y hacerlos con un crecimiento exponencial.

Documentos Citados

Mateos, Susana Maria Urbano. “Amazon: Qué Es y Cuál Es La Historia Que Esconde Detrás.” Actualidad ECommerce, Actualidad ECommerce, 26 Oct. 2018, http://www.actualidadecommerce.com/que-es-amazon/.

“Acerca De Amazon – Descubre Nuestra Empresa y Nuestra Tecnología.” Amazon.es: Acerca De Amazon, http://www.amazon.es/Acerca-Amazon-Descubre-Nuestra-Empresa-Nuestra-Tecnologia/b?ie=UTF8&node=1323175031#:~:text=Amazon%20es%20una%20de%20las,global%20en%20el%20comercio%20electr%C3%B3nico.&text=En%20la%20actualidad%2C%20Amazon%20ofrece,raquetas%20de%20tenis%20o%20diamantes.

“Amazon’s Secret of Success: Doing Crazy Things.” Yahoo! Finance, Yahoo!, finance.yahoo.com/news/amazons-secret-success-doing-crazy-215217907.html.

Emaz, Antoine, and Pérez-Ruiz Una. “AWS.” Amazon, UAP, 1998, aws.amazon.com/es/what-is-aws/.

CNN @expansionMx, et al. “La Estrategia De Amazon Para Ganar a La Competencia.” Expansión, 10 Oct. 2018, expansion.mx/tecnologia/2018/10/10/la-estrategia-de-amazon-para-ganar-a-la-competencia.

El Análisis de Datos, y su uso para responder a desastres naturales

Federal Emergency Management Agency

En la actualidad, se escucha distintas problemáticas siendo no menos importante las emergencias naturales, políticas y humanas. Desde los varios desastres como erupciones volcánicas, incendios, inundaciones, huracanes, tsunamis y terremotos, hasta la reciente pandemia de COVID-19 y sin olvidar el ataque terrorista del 9/11 o el atentado violento de la maratón de Boston. En el país de los sueños, específicamente, Estados Unidos ha logrado responder a estas emergencias de una manera muy particular a la que otros países del continente e incluso del mundo habrían podido. No obstante, debemos preguntarnos, al ser Estados Unidos un país tan grande y con estados políticamente independientes ¿Cómo es posible que este reaccione efectivamente ante una emergencia? Esto se debe gracias a la Agencia Federal de Manejo de Emergencias (FEMA por sus siglas en inglés), se caracteriza por ser la organización que se encarga de actuar inmediatamente en caso de desastres naturales o a gran escala en Estados Unidos de América. Según la página de la agencia su objetivo principal es: “Ayudar a la gente, antes, durante y después de los desastres” (FEMA, 2020). Este objetivo es logrado bajo la acción conjunta de distintas agencias federales. Su finalidad no solo es manejar situaciones de desastres, sino crear políticas públicas que permitan prevenir.   

Helping people before, during and after disasters”

-FEMA

FEMA fue creada en 1978 por la presidencia de Jimmy Carter y desde entonces ha sido la encargada de lidiar en caso de emergencia. Es conocida su respuesta después de los atentados del 11 de septiembre del 2001 y cómo se adaptó a la situación de un desastre de ese tipo, y millones de dólares fueron invertidos para la preparación ante ataques terroristas. Por otro lado, su respuesta ante el Huracán Katrina que azotó Nueva Orleans fue deficiente y muchas dudas respecto al desempeño de la Agencia crecieron (2010). El propósito final de la agencia es la de tomar decisiones rápidas ante situaciones límites para la toma de decisiones es primordial contar con la mayor cantidad de datos y evidencia posibles. Datos geográficos, meteorológicos e incluso demográficos ayudan a tomar decisiones. Es por lo tanto natural pensar que las técnicas usadas en data analysis pueden ser útiles. 

Podemos hablar del caso específico que sucedió en el estado de California con los incendios forestales. Es usual todos los años escuchar que el verano inclemente provoca la pérdida de varias hectáreas de bosques afectando no solo la vida silvestre sino incluso a la gente. Históricamente los incendios forestales en el área de San Diego han crecido cada vez más con el pasar de los años (Curran, 2019). En 2010, se quemaron 108,000 acres de bosque, mientras que en 2018 fueron 1,823,000. En términos monetarios los incendios le costaron al estado alrededor de 400 mil millones de dólares, y 85 personas murieron. No obstante es evidente que desde la perspectiva de vista del manejo de emergencias estas situaciones pueden ser prevenidas o mitigadas con políticas públicas, en otras palabras es en este contexto el análisis de datos y la toma de decisiones orientadas pueden marcar la diferencia.   

Analistas de datos independientes y asociados a FEMA llegaron a una solución usando las herramientas modernas disponibles para recopilar datos, los cuales en principio no son usados en emergencias. Las redes sociales actualmente recopilan gran cantidad de datos que de otra manera sería difícil de obtenerlos. Los datos recopilados fueron usados por un grupo de investigadores para ayudar a la toma de decisiones de FEMA en caso de emergencia. Los datos que usan provienen de sitios web como Yelp, una aplicación para calificar negocios, o Google. Los datos usados son: ubicación geográfica de los negocios, tipo de negocio, recursos disponibles para mitigar la emergencia. Por otro lado, también se usaron datos históricos sobre el tipo y recurrencia de desastres.  Estos datos permiten localizar donde se encuentran los recursos, o cuales son las zonas más propensas a sufrir en caso de emergencia (2020). El análisis de datos permite tomar decisiones sobre cómo enviar recursos y que zonas o negocios los requieren de forma inmediata. En este caso en particular los analistas de datos crearon un mapa interactivo que permitía a las agencias federales ubicar a los distintos negocios que puedan aportar con recursos en caso de emergencia, o por el otro lado, aquellos que necesiten de atención prioritaria (2020). El mapa sirve para prevenir con la creación de planes de evacuación y rutas óptimas de asignación de recursos, y en momento de emergencia para toma de decisiones inmediatas.

En cuanto a la respuesta de emergencias en la pandemia el uso de análisis de datos puede ser muy beneficioso. Las características principales de estos eventos son lo súbito, peligroso e incierto que se desarrollan. El uso de análisis datos puede ayudar a tomar decisiones para aliviar la sanidad pública y regresar a la normalidad lo más rápido posible. Actualmente se producen gran cantidad de datos de todo tipo, y el reto de los analistas es recopilarlos y procesarlos de la manera más óptima posible. En particular para la situación de la pandemia los datos médicos de pacientes, ubicación, diagnóstico y muchos más, son realmente importantes para cada una de la toma de decisiones. Una de las principales ayudas del análisis de datos ha sido el rastreo de contactos y la delimitación de áreas con mayor riesgo de contagio (Jia, 2020). Con los datos recopilados se crean árboles de las personas, con el contagiado y los contactos que provee. De esta forma es posible rastrear los contactos y clasificar zonas geográficas con mayor incidencia de contagios.

En conclusión, los desastres naturales son eventos que ocurren de manera improvista y pueden causar no sólo pérdidas económicas, sino humanitarias. El manejo de emergencias tiene dos propósitos importantes: Crear planes que previenen y mitigan los daños durante una emergencia y responder de manera inmediata y óptima cuando ocurre una. En el segundo aspecto es fundamental tomar decisiones rápidas, para lo cual el análisis de datos, la visualización de los datos en tiempo real y demás técnicas del Big Data son muy útiles en los casos descritos previamente. Esto demuestra que los gobiernos deben enfocarse e invertir más en técnicas de este tipo para mejorar su respuesta ante emergencias.  

Referencias

Curran, L. (2019). How Data Scientists can help Government Agencies Effectively Respond to Natural Disasters. https://towardsdatascience.com/how-data-scientists-can-help-government-agencies-effectively-respond-to-natural-disasters-c2978da932ee

FEMA (2020). Misión. https://www.fema.gov/about/mission

FEMA (2010). The Federal Emergency Management Agency Publication I. https://www.fema.gov/sites/default/files/2020-03/publication-one_english_2010.pdf

Jia, Q., Guo, Y., Wang, G., & Barnes, S. (2020). Big Data Analytics in the Fight against Major Public Health Incidents (Including COVID-19): A Conceptual Framework. International Journal of Environmental Research and Public Health, 17(17), 6161. doi: 10.3390/ijerph17176161. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7503476/

El Big Data en Twitter

Twitter es una red social que permite compartir enlaces, gifts, pensamientos, fotografías, videos, encuestas e información. Los usuarios pueden comunicarse de forma privada y pública con otros usuarios y así compartir sus intereses en común sobre temas de economía, política, música, noticias, eventos, entre otros. Está es considerada como una red de microblogging porque una de sus características es que el texto que se publica no puede exceder de 280 caracteres con el objetivo de narrar lo que se está pensando o viviendo de forma concreta.

Se originó como un proyecto de investigación de la empresa Obvious en San Francisco y en Julio de 2006 Jack Dorsey, Biz Stone y Evan Williams crearon la empresa Twitter Inc. para poder conseguir inversores. Para finales del 2009  disponen de versiones en francés, alemán, italiano y español.  En 2010 crea el servicio de tweets promocionados los cuales son tweets comprados por anunciantes para llegar a un grupo de usuarios específico. Para inicios del 2015 Twitter anuncia su nueva aplicación Periscope la que permite transmitir eventos en tiempo real, un año después esta aplicación ya contaba con más de 215 millones de emisiones en directo.

Big Data es un término utilizado para la recopilación de un conjunto de datos grandes y complejos, que no pueden ser manipulados con herramientas convencionales de administración de bases de datos. Esta informacion es utilizada para conocer los patrones y tendencias de las personas y así mejorar las operaciones comerciales de una empresa. Cabe destacar que, en 2016, Twitter compró Magic Pony Technology con el propósito de implementar inteligencia artificial en la plataforma y aplicar algoritmos mejores y más complejos para el análisis de los usuarios en la aplicación.

Actualmente, twitter tiene grandes requisitos de almacenamiento y tratamiento de datos, por lo que uno de los programas utilizados para recopilar los tweets es Hadoop de acuerdo con  (Kevin Weil, 2010). Este programa se usa para almacenar y procesar datos a gran escala como los tweets, por lo que se lo ha considerado un software eficaz utilizado actualmente por grandes empresas y corporaciones, como Google y Facebook.  Hadoop incluye diferentes herramientas y componentes para distribuir el procesamiento una de ellas es el “MapReduce”. De acuerdo con (Shilpi Taneja & Manish Taneja, 2014) Twitter utiliza este componente para las tendencias, analizando tweets individuales y filtrar las palabras clave que estén siendo utilizadas por muchos usuarios. Esto proporciona una perspectiva de cuales son los temas relevantes o claves en ese momento. Además, se implementa también para el análisis de sentimiento, por ejemplo, un usuario al momento de buscar una palabra clave sobre alguna marca, esto es analizado para calcular el sentimiento o puntuación por esa marca.

De acuerdo con (Bernard Marr, s. f.) la aplicación utiliza la información de los usuarios: a quién siguen, sus tweets, retweets e interacciones con otras cuentas para personalizar los anuncios. Así mismo, la información del perfil, la ubicación del dispositivo y las aplicaciones instaladas en el celular para identificar los anuncios locales y los anuncios que podría preferir el usuario. De esta misma forma los algoritmos escanean y clasifican los tweets para mostrar en el feed de cada usuario, determina los más relevantes según sus interacciones y sugiere cuentas y videos que les podrían interesar, anteriormente, Twitter solo mostraba los tweets en orden cronológico inverso.

Por otro lado, los hashtags clasifican las publicaciones y permiten conocer los temas más populares del momento. Las tendencias se determinan mediante un algoritmo y si se relacionan con un mismo tema el algoritmo las agrupa. Estas son personalizadas, sin embargo, también incluyen temas locales y globales. Actualmente las tendencias tienen una categoría, se puede ver si es de política, música, entretenimiento, etc.  De igual manera, existe un nuevo algoritmo denominado “por si te lo perdiste”, si un usuario no revisa esta red social en mucho tiempo entonces Twitter junta una serie de tweets que pueden ser importantes para ese usuario y los muestra en una sección especifica. Este algoritmo logró atraer a más usuarios, en 2017 el crecimiento de los usuarios en esta red social fue más de 18 millones.

Twitter también les da la oportunidad a los usuarios de analizar los datos e interacciones de sus publicaciones, esto se implementó en 2014 y se denomina Twitter Analytics. De esta forma se puede conocer el número de impresiones e interacciones de personas con el tweet, con esto se puede saber cuántos usuarios le dan clic a la publicación, a la imagen, al perfil, entre otras. Esto es una función interesante e importante para los negocios ya que les ayuda a identificar que tipo de publicaciones están generando más conexión con los usuarios y cuales funcionan mejor.

Se puede observar claramente como Twitter utiliza análisis de datos para ofrecer una mejor experiencia a sus usuarios y facilitar el uso de la aplicación mediante algoritmos y clasificación personalizada de tweets con la ayuda del Big Data. Así mismo, los usuarios pueden analizar las interacciones de sus publicaciones permitiendoles conocer su alcance y así mejorar. Estas funciones han logrado captar a más usuarios en la red social y así mismo a más empresas, generando un nuevo método de marketing dentro de Twitter.

REFERENCIAS

Bernard Marr. (s. f.). How Twitter Uses Big Data And Artificial Intelligence (AI). Bernard Marr & Co. https://www.bernardmarr.com/default.asp?contentID=1373#:~:text=Twitter’s%20ranking%20algorithm%20has%20taken,that%20content%20in%20their%20feed

CNN en Español. (2013). 23 momentos claves en la historia de Twitter. CNN. https://cnnespanol.cnn.com/2013/09/16/23-momentos-clave-en-la-historia-de-twitter/

Joel Lunenfeld. (2016). 10 maneras en las que el Marketing ha cambiado con Twitter. Twitter. https://blog.twitter.com/es_es/a/es/2016/10-maneras-en-las-que-el-marketing-ha-cambiado-con-twitter.html

José Antonio carballar Falcón. (2011). Twitter—Marketing personal y profesional. RC Libros. https://books.google.es/books?hl=es&lr=&id=BQnyfWCUjOcC&oi=fnd&pg=PA1&dq=twitter+negocio+&ots=Xy3h9qj4cM&sig=xh46m6bqpIU2czE8h-foVd3m3rQ#v=onepage&q=twitter%20negocio&f=false

Kevin Weil. (2010). Hadoop at Twitter. Twitter. https://blog.twitter.com/engineering/en_us/a/2010/hadoop-at-twitter.html

Shilpi Taneja & Manish Taneja. (2014, mayo). BIG DATA AND TWITTER. https://www.ijrcar.com/Volume_2_Issue_5/v2i540.pdf

Twitter. (s. f.). Preguntas frecuentes sobre las tendencias de Twitter. https://help.twitter.com/es/using-twitter/twitter-trending-faqs

El uso de Big Data en Nike

“A medida que la demanda crece, debemos saber reconducir optimizando los datos para hiper focalizarlos en los comportamientos del consumidor” explicó el director de operaciones Eric Sprunk en una entrevista. Muchas empresas han optado por el uso del Big data analytics ya que les trae varios beneficios comerciales permitiendo obtener nuevos conocimientos, llevándonos a realizar una administración eficiente y eficaz. Esta información nos ayuda a tomar decisiones acertadas y mejores. Nike es una empresa que constantemente se encuentra innovando tanto en sus productos como en sus estrategias corporativas, por lo que también ha incluido el big data en su corporación.

            El big data nos ayuda a manipular grandes cantidades de datos, que se enfoca principalmente en el almacenamiento, búsqueda y sobre todo análisis de datos. Si se usa de una manera adecuada, sabiendo descomponer correctamente la información, puede pasar de presentar datos a presentar oportunidades de negocio. También, otra de las funcionalidades es el poder estimar lo que pasará en un futuro, basado en la información obtenida. Se puede conocer fechas en las que se pueda realizar las compras, que productos son más comercializados, cuales podrían comprar nuestros clientes basado en su comportamiento, qué tipo de promoción de producto puede ser más eficaz en cierta audiencia. En conclusión, aumenta la eficacia en la toma de decisiones y por ende de los negocios, ya que toda decisión estará basada en datos de los clientes. Además, permite ahorrar tiempo.

            Nike es una compañía que se enfoca en la fabricación, desarrollo y comercialización de todo tipo de equipamiento deportivo como: ropa, balones, accesorios, calzado, entre más. Hoy en día varias empresas le han apostado al análisis de datos y Nike no es la excepción. ̈ En 2019 y 2020 Nike adquirió firmas de análisis de datos del consumidor con el objetivo de acelerar la ¨Transformación digital¨ ¨(El economista. 2019). Se realizó una alianza estratégica entre Nike y una compañía llamada Celect, que se encarga de obtener y recopilar datos para analizar las tendencias de consumo. Celect también realiza predicciones de tendencia global y local.  

            A consecuencia de la alianza estratégica realizada. Se optó por integrar aplicaciones móviles llamada ¨Nike Fit¨ esta app permite realizar un escaneo 3D con la que se busca predecir con precisión el tamaño de las zapatillas que las personas desean comprar. Con esto, la empresa puede predecir los estilos de los zapatos o prendas de vestir que sean de interés para sus clientes, cuando lo quieren y donde van a comprar. Se busca estimar los patrones de comportamiento de las compras. Esta alianza estratégica ayudará a que Nike impulse el deseo de compra. Tiempo después se realiza otro lanzamiento de una app con el nombre de ¨Nike +¨ ¨Nike Run Club¨ ¨Nike Training Club¨ que tienen como objetivo el ser asistente de deporte, se vende a los usuarios estas apps como productos complementarios que llevan a potenciar su rendimiento.  Estas apps ´s interactúan constantemente con el usuario, facilitando la recolección de datos. A consecuencia de esto se realizan las estadísticas del deporte que practiques como: rastreo de carreras, desafíos semanales, planes de entrenamiento, calorías quemadas, saturación de oxígeno, competiciones en línea y más. Con toda esta información que se está obteniendo de sus clientes, la empresa podrá saber aspectos como el potencial, cuando ya tendrás la necesidad de obtener nuevos accesorios o zapatos de la marca ya que estará basado en la durabilidad de sus productos con el uso que tú le das. Además, podrá conocer tus intereses en algún deporte y te promocionará accesorios relacionado con este. Con toda esta información, se estima cuando realizaras la compra por lo que te mostrará una oferta de productos y servicios personalizados. “Tenemos que anticipar la demanda. No tenemos seis meses para hacerlo. Tenemos 30 minutos”. explicó el director de operaciones Eric Sprunk en una entrevista a CNBC.

            En conclusión, el uso del big data permite a Nike conocer mejor a sus clientes. Esto les permite tener un mayor margen de utilidad. También, la toma de decisiones le ha ayudado a que no tengan un alto nivel de inventario en su punto de ventas, reduciendo el gasto en almacenamiento. Y sobre todo, adelantándose a la necesidad de sus clientes en comprar productos deportivos, permitiéndole publicitar sus productos y que sea Nike quien compre. Después del uso del Big Data, las ventas de Nike aumentaron en un 12% que corresponde a un ingreso de $10 millones. Además, para el inicio del 2020 las acciones se elevaron en un 8%, llevando a una capitalización de mercado de $127000 millones.

Referencias bibliográficas

Pinazo, D. (Mayo 2017). La importancia del Big Data en la empresa. Comunidad IEBS. Recuperado de: https://comunidad.iebschool.com/davidpinazo/2017/05/importancia-big-data-empresa/

            Cediel, D. (2019). Big data imprescindible en el analisis de datos. Viewnext. Recuperado de: https://www.viewnext.com/importancia-del-big-data/#:~:text=Importancia%20de%20Big%20Data%20Analytics&text=El%20an%C3%A1lisis%20Big%20Data%20es,los%20problemas%20de%20los%20clientes

            Finsa, K (2019). Cinco ejemplos de empresas que usan big data. Connections. Recuperado de: https://www.connectionsbyfinsa.com/cinco-ejemplos-de-empresas-que-aplican-big-data-para-conocerte-mejor/             El economista (2019). Nike apuesta al big data para predecir compras y terminar con los mayoristas. El economista. Recuperado de: https://eleconomista.com.ar/2019-08-nike-compro-una-compania-de-big-data-para-predecir-mejor-al-consumidor/

Análisis de datos en Robinhood Markets Inc.

La popular empresa estadounidense “Robinhood Markets Inc.” fundada por Vladimir Tenev y Baiju Bhatt en 2013 y lanzada oficialmente en 2015 es una empresa con sede en Menlo Park, California que ofrece servicios financieros y es conocida por operar sin comisiones en mercados financieros a través de una aplicación móvil, lo cual permite a los 13 millones de usuarios registrados en esta plataforma invertir su dinero de forma rápida y sencilla.

Entre los principales logros y controversias de la empresa tenemos el rápido aumento en la valoración de la empresa gracias a las grandes rondas de financiación que recibió entre los años 2017 y 2019, mismas que valorizaron a Robinhood entre los $7 000 millones a los $10 mil millones. En cuanto a las controversias de Robinhood tenemos violaciones a la seguridad en 2019 donde se demostró que miles de contraseñas eran almacenadas por la empresa; también, afrontó una importante controversia debido al suicidio de Alexander E. Kearns quien dejo una carta acusando a Robinhood de haberle permitido correr muchos riesgos en su plataforma; finalmente, afrontó su controversia más reciente en 2021 donde se le acuso de restringir deliberadamente el comercio de ciertas acciones para evitar que inversores minoristas obtengan un beneficio de la situación.

A continuación, hablaremos un poco sobre como Robinhood utiliza el análisis de datos en su plataforma para ofrecer el servicio más adecuado a las personas al momento de invertir en la bolsa de valores. Abordaremos temas como la información personal que solicitan al momento de crear una cuenta, los datos agrupados que presentan sobre las empresas disponibles en su plataforma, las sugerencias basadas en análisis para los inversores minoristas y los datos agrupados que presentan a los inversores con relación a su portafolio de acciones bursátiles.

En primer lugar, tenemos toda la información que Robinhood recopila al momento de crear una cuenta en la plataforma. Por un lado, ellos reúnen información personal como nombre, fecha de nacimiento y dirección; por el otro, reúnen información bancaria para poder determinar si cuentas con ingresos que te permitan utilizar la plataforma y solventar los gastos. Adicionalmente, realizan preguntas para poder tener una idea del conocimiento que posees cuando de comercio de acciones se trata. Esto le sirve a Robinhood para saber a qué segmento de mercado debe dirigirse; actualmente la mayor parte de los usuarios de esta aplicación son millennials.

En segundo lugar, Robinhood publica diariamente las noticias más relevantes en el mundo y también de las empresas que investigamos. Junto con eso, la plataforma tiene registrados todos los precios de las acciones de las empresas desde el momento en que decidieron cotizar en bolsa para poder brindar razones financieras relevantes tales como su porcentaje de crecimiento, precio de apertura, precio de cierre, volumen de ventas, dividendos y capitalización en el mercado. Estos datos son muy utilizados por profesionales para realizar sugerencias a los inversores minoristas, la plataforma utiliza estas sugerencias y presenta a los usuarios los porcentajes para las opciones “Sell”, “Buy” o “Hold”, mismas que dan una idea a los inversionistas sobre qué acciones están tomando las personas sobre la empresa.

Finalmente, Robinhood lleva un registro de los portafolios y analiza sus datos para presentárselos a los inversionistas. Dentro de este análisis las personas pueden conocer el número exacto de acciones que poseen, su porcentaje de diversificación, el retorno sobre la inversión total, el costo total de la inversión y los dividendos que genera al momento. Esto es muy útil para las personas ya que evita confusiones y les permite acceder a todas sus inversiones de manera rápida y sencilla mientras que llevan un registro de su crecimiento o decrecimiento con el paso del tiempo.

En conclusión y como es de esperarse, Robinhood tal como cualquier plataforma de comercio de acciones utiliza mucho lo que es el análisis de datos para poder presentar información valida a las personas que quiere usar su plataforma para invertir su dinero, estos análisis que presentan deben ser extremadamente precisos debido a que las personas están confiando su dinero y en muchas ocasiones sus ahorros de vida, lo cual podría resultar en una catástrofe de no tener datos reales y agrupados. Es importante recalcar que a pesar de todas las controversias que Robinhood ha afrontado durante los últimos años, continúa siendo una de las plataformas de trading más populares en el mundo y la gente lo sigue prefiriendo gracias a la intuitiva interfaz que ofrece y a la facilidad para invertir que les brinda a los usuarios.

Referencias

Celine, T. (18 de junio de 2020). College Student Commits Suicide After Online Trading Platform Robinhood Showed His Negative $730,000 Debt. Obtenido de Tech Times: https://www.techtimes.com/amp/articles/250416/20200618/college-student-commits-suicide-after-online-trading-platform-robinhood-showed-his-negative-730-000-debt.htm

Marrón, M. (29 de enero de 2021). Quién está detrás de Robinhood, los dos amigos billonarios que han dado la vuelta a Wall Street. Obtenido de NIUS: https://www.niusdiario.es/vida/visto-oido/robinhood-quien-detras-app-trading-bolsa-foro-reddit-wall-street_18_3083070176.html

Plaza, A. (29 de enero de 2021). Robinhood, la app de trading ‘millennial’ que enganchó y dejó tirados a miles de pequeños inversores con GameStop. Obtenido de Eldiario.es: https://www.eldiario.es/economia/robinhood-app-trading-millennial-engancho-dejo-tirados-miles-pequenos-inversores_1_7178731.html

Royal, J. (s.f.). Robinhood® review 2021. Obtenido de Bankrate: https://www.bankrate.com/investing/brokerage-reviews/robinhood/

Disney y Big Data

The Walt Disney Company, o también conocida como Disney, es el conglomerado de medios de entretenimiento más grande del mundo. El público, en general, cataloga a Disney como el estudio con la cara del ratón Mickey que produce películas y series dirigidas hacia una demografía infantil; sin embargo, hay varios factores que se omiten tras esta generalización tan amplia y, en parte, errónea. La compañía no solo es productora de películas animadas por medio de Walt Disney Animation Studios y Pixar Animation Studios, sino que adicionalmente posee varios canales de televisión, tales como Disney Channel, Disney Junior, Disney XD, ESPN, y la American Broadcasting Company; y cuenta con un servicio de plataforma de streaming llamada Disney +.  Así mismo, adquirió otras propiedades intelectuales adicionales como Marvel Studios, Lucasfilm, 20th Century Studios, Searchlight Pictures, Fox, ABC News & Enternatiment, y National Geographic. Sin mencionar sus parques temáticos en Estados Unidos, China, Japón, Francia y Hong Kong; así como, su línea de cruceros Disney Cruise Line.

La compañía cuenta con aproximadamente 97 años de trayectoria, por lo que, para evitar explayarse en su historia, se tocará puntos clave desde su nacimiento y desarrollo de la compañía. En 1923, Walt Disney llegó a California tras la creación de su caricatura “Alice’s Wonderland”, decidido a usarla como piloto y venderla a un distribuidor como una serie. Debido al exitoso contrato con un distribuidor de Nueva York, M. J. Winkler; el 16 de octubre de ese mismo año, la compañía Disney Brother Cartoon Studio fue fundada junto con su hermano Roy (D23, s.f.). En 1928, el famoso personaje Mickey Mouse realizó su debut en la pantalla grande como personaje en el cortometraje animado “Steamboat Willie”. En la próxima década, la compañía estrenaría su primer largometraje animado a color, “Blanca Nieves y los Siete Enanitos”, la cual fue un éxito en taquilla. En 1955, Walt abre Disneyland en Anaheim, California. Gracias al gran éxito de Disneyland, en el año de 1971, Walt Disney World abre sus puertas en Orlando, Florida; lo que en un futuro causaría una gran expansión de parques temáticos. El 2006, Disney se hace de Pixar Studios, esta compra sería el inicio de otras futuras hacia compañías de entretenimiento. Disney adquirió Marvel Studios en el 2009, y Lucasfilm en el año 2012. Finalmente, en el año 2019 Disney compra Fox; lo que posicionaría a Disney como un posible monopolio en el mercado del entretenimiento.

Un conglomerado que posee una escala y alcance tan grande como The Walt Disney Company se ha mantenido a flote debido a su constante innovación creativa y tecnológica. Como se ha mencionado previamente, Disney no es solo una compañía que se dedica a la creación de películas, sino que gran parte de sus ingresos anuales se deben a la venta del “merchandising” y, como no, sus parques temáticos alrededor del mundo. Disney se ha propuesto en estos últimos 5 años, la evolución de la experiencia de los visitantes por medio del análisis y recolección de datos. Es decir, llevaron al cabo, una estrategia de Big Data.

Big Data define una situación en que los conjuntos de datos han crecido a tamaños tan grandes que las tecnologías para la recolección de información convencionales no pueden manejar eficazmente ni el tamaño del conjunto de datos, ni su crecimiento (Ohlhorst, 2012). En otras palabras, el conjunto de datos ha crecido a tal magnitud donde su administración es difícil, y obtener valores de estos es una labor en extremo complicada. Esta definición se acopla perfectamente a los 100 millones de personas que visitan anualmente los parques de Disney (Alharthi, 2017); individuos de los cuales Disney obtiene información por medio de la implementación de las pulseras RFID.

Las pulseras RFID o Disney’s Magic Bands, son pulseras impermeables, parecidas a un reloj, que vienen en una amplia gama de colores y diseños. Estas están diseñadas para realizar una recolección de datos más efectiva del usuario para la compañía, y a su vez, un mejor servicio al cliente por parte de la compañía al usuario; debido a que estas están interrelacionadas al sistema “My Magic+”. Los sensores RFID son pequeños dispositivos informáticos que pueden transmitir información digital sobre el objeto al que están conectados de forma automática e inalámbrica, a una distancia considerable y sin necesidad de línea de visión (Alharthi, 2017). Para el usuario, esta pulsera sirve como entrada a los parques de atracciones, llave del hotel, se puede relacionarla directamente a la tarjeta de crédito para pago en restaurantes y tiendas de merchandising; sin mencionar la facilidad para la reservación de fast-pass y el acceso a atracciones sin hacer cola. Lo que permite un viaje más ligero durante el periodo de vacaciones.

A su vez, la compañía obtiene un gran flujo de información que se almacena en bases de datos. Disney recibe informes de horas de entrada y salida de los parques, patrones dentro del uso de las atracciones, un historial de consumos y compras dentro del parque, y ubicación en tiempo real dentro del resort. Debido a la ayuda de las pulseras y la aplicación de “My Disney +”, la aplicación puede realizar acciones como presentar sugerencias o incentivos para redirigir a personas a las zonas menos congestionadas del área (Karp, 2016).  Esta gran afluencia de datos ha sido usada para diseñar campañas de marketing, basándose en el público objetivo de las pulseras, así como la planificación de actuaciones temáticas dentro del parque considerado que zonas se encuentran con un mayor grupo de personas. Debido a la implementación de estas tecnologías, Disney se ha permitido realizar una optimización más eficiente de los recursos dentro del parque, al grado que se ha reportado una disminución del 20% de costos internos del parque (Karp, 2016).   Esta función no solo recolecta datos, sino que a su vez produce una nueva experiencia para el visitante.

Bibliografía:

Alharthi, A. (2017). Addressing barriers to big data. ScienceDirect. https://www.sciencedirect.com/science/article/abs/pii/S0007681317300022

Big Data Behind Disney Magic. (2019, 13 noviembre). Digital Innovation and Transformation. https://digital.hbs.edu/platform-digit/submission/big-data-behind-disney-magic/

D23: The Official Disney Fan Club. (s. f.). Disney History. Walt Disney Archieves. Recuperado 26 de febrero de 2021, de https://d23.com/disney-history/

Karp, A. (2016, 28 marzo). Big Data y la experiencia Walt Disney. CulturaCRM. https://culturacrm.com/big-data/big-data-la-experiencia-walt-disney

Ohlhorst, F. (2012). Big Data Analytics: Turning Big Data Into Big Money [Libro electrónico]. John Wiley & Sons. https://books.google.es/books?hl=es&lr=&id=59jqanSN0mwC&oi=fnd&pg=PR9&dq=disney+and+big+data&ots=_G3MFLBFU9&sig=IpB2Hs_nYrghKqpgSZM-6h_Vm1E#v=onepage&q=disney&f=false

The Walt Disney Company. (s. f.). Disney – Leadership, History, Corporate Social Responsibility. Recuperado 25 de febrero de 2021, de https://thewaltdisneycompany.com/about/#-5

Michelangelo, la analítica de Uber

Durante toda la historia la movilización ha sido un factor muy importante para el ser humano. A lo largo del tiempo el servicio de taxis dominó el mercado en la mayoría de países. Sin embargo, en 2009 una idea transformó y revolucionó la forma de movilizarnos. Se creó una plataforma para solucionar el problema del servicio de transporte donde se buscaba que a través de tu teléfono tengas un vehículo en el lugar adecuado y en el momento preciso.

El generador de esta idea fue Travis Kalanick, el nació en Los Angeles, USA en 1976. Buscando innovar la movilización decidió implementar un plan de negocios basada en la economía colaborativa. Es decir, que él no quería tener empleados a quienes pagarles un sueldo, él simplemente quería unir conductores con consumidores a través de una aplicación. Así que en 2009 se fundó Ubercab, esta empresa se basaba en pedir un taxi desde una aplicación. Al tener una gran acogida en 2010 se lanzó la aplicación en San Francisco. Al tener bastante éxito muchos inversionistas decidieron invertir en la empresa y así fue como crecieron a diferentes ciudades. En 2012 se cambiaron de nombre a Uber y el resto ya es historia.

En un principio, al tener pocos consumidores, Uber manejaba toda la información manualmente. Pero en vista de que empezó a existir un crecimiento exponencial en la empresa teniendo más consumidores y más conductores, la aplicación necesitaba manejar mayor información. Esto provocó que la mayor parte de sus inversiones se vayan en plataformas para poder manejar los datos y lograr que la aplicación funcione correctamente. Como uber menciona “Uber Engineering está comprometida con el desarrollo de tecnologías que crean experiencias impactantes y fluidas para nuestros clientes. Estamos invirtiendo cada vez más en inteligencia artificial (IA) y aprendizaje automático (ML) para cumplir con esta visión” (Hermann, J. 2017).

Al tener el objetivo de tener una aplicación y una plataforma eficiente, Uber decidió contratar científicos de datos. Estos ayudaron a la empresa para crear algoritmos y para crear un mejor manejo de los datos y así poder tener un mejor manejo dentro de la aplicación. Lograron recopilar todos los datos en una misma plataforma. “Usaban una amplia variedad de herramientas para crear modelos predictivos (R, scikit-learn , algoritmos personalizados, etc.). Algunos científicos e ingenieros de datos podían construir en un corto período de tiempo con herramientas en su mayoría de código abierto.” (Holler. A, 2019). Como se menciona, existió mucha dificultad y muchas herramientas para poder manejar esa cantidad de datos.

Después de pasar por todos estos desafíos, Uber logró crear una plataforma revolucionaria llamada Michelangelo “En Uber, nuestra contribución a este espacio es Michelangelo, una plataforma interna de aprendizaje automático como servicio que democratiza el aprendizaje automático y hace que escalar la IA para satisfacer las necesidades de las empresas sea tan fácil como solicitar un viaje.” (Hermann, J. 2017). Esta plataforma fue diseñada para administrar datos, evaluar e implementar datos, hacer predicciones en tiempo real, monitoreo y aprendizaje automático. Generando herramientas escalables, confiables, reproducibles, fáciles de usar y automatizadas.

En conclusión, creo que Uber ha tenido que adaptarse rápidamente en el mundo digital y de datos. Esto ha sido su factor diferenciador y el punto clave de su éxito. Ya que esto le permite tener muchas predicciones en tiempo real y le ayuda a tomar mejores decisiones, también este gran manejo de datos hace que todo sea mucho más eficiente y funcione mejor. Por otro lado, esto funciona para tener un marketing digital mucho mejor por lo que se puede vender mucho más. Por esto considero que Uber es un gran ejemplo de cómo se debe manejar los datos para beneficiar a tu empresa.

Bibliografía:
Hermann, J. (2017, September 5). Meet Michelangelo: Uber’s Machine Learning Platform. Retrieved February 4, 2021, from Uber Engineering Blog website: https://eng.uber.com/michelangelo-machine-learning-platform/

Holler, A. (2019, October 16). Evolving Michelangelo Model Representation for Flexibility at Scale. Retrieved February 5, 2021, from Uber Engineering Blog website: https://eng.uber.com/michelangelo-machine-learning-model-representation/

Chevrolet y su Aplicación de Big data

¿Sabías que el creador de una de las marcas de vehículos pioneras y más reconocidas a nivel mundial como Chevrolet terminó su vida en la miseria y siendo un trabajador más para poder sobrevivir?

Chevrolet es una empresa dedicada a elaborar todo tipo de vehículos teniendo en su arsenal una gama diversa de automóviles y camiones con su industria matriz en Detroit ubicada en los Estados Unidos, Chevrolet pertenece al grupo General Motors Company quien es el principal y más grande productor de vehículos del mundo, portando en su abanico la firma de Chevrolet quien es la principal marca distribuida por General Motors Company considerada así por su gran acogida de ventas en los últimos siglos. Chevrolet se encuentra en varios mercados como es el caso de: América del Sur, América del Norte y en los últimos años ha ingresado al mercado en el territorio africano y asiático.

Para empezar, es importante considerar los hitos históricos que engloban a Chevrolet. ¿Cómo nace el nombre Chevrolet? Louis Joseph Chevrolet nacido en Suiza en el año de 1878, su padre de oficio relojero fue quien le incentivo y sembró en él, la destreza de la mecánica, cuando cumplió los 10 años de edad Louis y su familia tuvieron que mudarse a Francia donde tuvo la oportunidad de trabajar en un taller que se dedicaba a la reparación de bicicletas, incursionado en el medio años más tarde crea su primer invento que fue una bicicleta a la cual la denomino Frontenac. Cuando cumplió 15 años descubrió el increíble mundo que engloba a los autos, en donde años más tarde se convirtió en chofer de competencias automovilísticas. Para el año 1911 Louis Joseph comienza con la idea de construir su propio automóvil, pero aun no contaba con la preparación suficiente, así que realizo una asociación con el Ing. Etienne Planche que le ayudo a pulir sus conocimientos, pero esto no acabaría aquí, tiempo después Louis Chevrolet no encontraba quien apoyara económicamente su proyecto y es aquí en donde conoce a un comerciante de nombre William Duránt quien no dudo dos veces y acepto inmediatamente crear una asociación para en el año 1912 sacar al mercado el primer vehículo que en honor a su creador lleva el nombre de Chevrolet Classic Six, desde sus inicios Chevrolet revoluciono y lidero el mercado de vehículos siendo este uno de los más vendidos, pero a pesar de ellos Louis Chevrolet no era dueño ni de la décima parte ya que su socio lo habría estafado a tal punto que para poder sobrevivir tuvo que vender el poco porcentaje de acciones que le correspondía llegando al final de sus días en extrema pobreza. (Guest, 2021, p.3,5)

General Motors es una de las empresas que tuvo que pasar de ser una de las pioneras a nivel mundial a tener una crisis económica a tal nivel que llevo a la quiebra a General Motors Corporation por varios años. Con el pasar del tiempo General Motors arranco con la reestructuración de su empresa en la que paso de ser General Motors Corporation a General Motors Company en donde empezó a corregir todos y cada uno de sus errores e implementar nuevas estrategias, una de ellas vino de acuerdo al avance con pasos agigantados de la tecnología con la implementación del Big Data. General Motors Company ha experimentado un cambio fuerte y todo se debe a la recopilación de un sin número de datos masivos que sirven para saber que ofrecer, cuando hacerlo y cómo hacerlo para poder llegar a sus clientes y tener éxito en su empresa (EcuRed,2020).

En la actualidad General Motors Company se encuentra aún en medio de la trasformación TI, implementando más personal y a su vez desarrollando su propia base de datos que es nada más y nada menos que empezar a recopilar y almacenar la mayor cantidad posible de datos que sirvan de apoyo para que su industria logre llegar a vender y cada vez ser más eficaz y eficiente a la hora de ofrecer sus productos.  La innovadora base de datos de General Motors Company ya consta con aproximadamente 3 petabytes que es la cantidad de almacenamiento de datos en un sitio web elaborada específicamente para perfeccionar el desarrollo de sus vehículos, la calidad de los mismos, su manera de adquirirlos, su logística y por su puesto el marketing para sus ventas entre otros datos. General Motors Company ejecuta 3 formas de Big Data que va desde la telemática en sus vehículos, hasta desarrollar perfiles de sus clientes con el propósito de presagiar su fabricación y distribución a la hora de vender, básicamente una planta de información usada para elaborar autos.

El rendimiento en el concesionario es la primera implementación que consiste en combinar métodos de información geográfica y el análisis big data para obtener una mejora en el desempeño de los distribuidores, este tipo de análisis espacial o mapeal se comparten con el distribuidor para que puedan ver la demografía, sus características de ubicación para entender a los clientes. Según Three Use Cases of How General Motors Applies Big Data to Become Profitable Again. General Motors hoy gracias al análisis de sus datos sabe que a sus clientes no les interesa transitar por alado de sus distribuidores que les convenga mejor si eso les beneficiara con un descuento al momento de adquirir un vehículo, pero a pesar de ellos no recurrirán a lo mismo cuando su vehículo requiera algún servicio técnico, este tipo de análisis le permite conocer mejor a su cliente a la hora de ofrecer o lanzar al mercado algún automóvil. (2021, párr.3,4). 

El marketing personalizado de General Motors cuenta con un presupuesto arriba de los 2.000 millones de dólares anuales con lo que puede llegar a un sin número de clientes potenciales, pero en vez de llegar de una manera más general al público han implementado el uso del big data para obtener perfiles específicos de sus verdaderos clientes lo que les permite segmentar de mejor manera su mercado. A través de la combinación de los datos de sus clientes y los datos demográficos General Motors sabe a qué publico dirigir o distribuir cierta gama de vehículos y a que publico no hacerlo por ejemplo en américa del sur y a países específicamente como Ecuador, Venezuela, Colombia, Perú no se puede comercializar una gama de vehículos igual a los vehículos que se comercializan en Europa, por simples y claras razones una de ellas es la posición económica no es igual la de América del sur con la de Europa, entonces gracias a la obtención de datos General Motors puede saber que vehículos sacar a distintos tipos de mercado y que vehículos no para que esto no afecte su producción y ventas.

La Telemática y coches inteligentes conectados, para General Motors la telemática es la fuente de dinero que le genera la mayor cantidad de ahorros, para ser exactos de hasta $800 por vehículo. Hoy en día para nadie es nada nuevo que los vehículos vengan con una infinidad de sensores que ayuden prácticamente a tener control del funcionamiento de todas las partes del auto y General Motors se concentra en los sensores y telemáticas dentro del vehículo lo que le permite brindar a sus clientes seguridad y confianza al adquirir sus automóviles. Los autos con esta telemática ofrecen varios beneficios tanto al dueño como a sus fabricantes ya que al tener acceso a los datos del vehículo ambas partes pueden emitir y recibir información que les permita obtener diagnósticos de cómo va su vehículo y de los mantenimientos que este necesita para poder tener el vehículo en excelentes condiciones. (2021, p.1).

Estas tres aplicaciones de General Motors marcan el inicio de lo que será un gran cambio y avance en su industria a través de Big Data, actualmente se encuentran trabajando en otras aplicaciones de Big Data como es el caso de una tableta en la que permitan al vendedor buscar el inventario, los proyectos, los estímulos de un automóvil mientras atienden un cliente, con lo que General Motors está percibiendo un cambio cultural fuerte para transformarse en un motor de datos.     

Bibliografía

General Motors – EcuRed. (2020). Ecured.cu. https://www.ecured.cu/General_Motors

 Guest3a7d8c. (2021). Chevrolet una pasión. Slideshare.net. https://es.slideshare.net/guest3a7d8c/chevrolet-una-pasin

‌Rubén Fidalgo. (2015, December 4). Qué significa el logo de Chevrolet.

Autocasión; Autocasión. https://www.autocasion.com/actualidad/reportajes/que-significa-el-logo-dechevrolet#:~:text=La%20marca%20Chevrolet%20se%20funda,los%20primeros%20a%C3%B1os%20del%20autom%C3%B3vil.&text=Si%20el%20nombre%20procede%20del,tiene%20su%20origen%20en%20Francia

‌ Tinsa. (2015). Tinsa Tasaciones Inmobiliarias. Tinsa Tasaciones Inmobiliarias. https://www.tinsa.es/blog/historia/general-motors-la-historia-de-un-referente-de-la-industria-del-automovil/

Three Use Cases of How General Motors Applies Big Data to Become

Profitable Again. (2021). Three Use Cases of How General Motors Applies Big Data to Become Profitable Again. Datafloq.com. https://datafloq.com/read/three-use-cases-general-motors-applies-big-data-be/257

LUCA, el Big Data de PEPSICO

PepsiCo es conocida como una empresa multinacional muy poderosa establecida en los Estados Unidos que se dedica a la producción, fabricación y distribución de distintos aperitivos y variedad de bebidas, aún que ha ido expandiendo su portafolio estos últimos 5 años. Esta empresa ya se encuentra en más de 200 países, tales como como Colombia, México, República Dominicana, Argentina, Guatemala, Venezuela y Uruguay.

            La empresa nació en 1923 gracias a Caleb Bradham, el cual tenia la intención de crear una bebida que ayude a la digestión y como estimulante, pero debido a la caída del azúcar, la empresa quebró y paso a manos de Roy Megargel. En 1936 doblo sus beneficios y se posiciono como presidente Walter Mack. Tuvieron varios conflictos a inicios y durante la segunda guerra mundial, sin embargo, continuaron con la creación de nuevas plantas de extracción de azúcar y embotellamientos. En 1965 se posiciona como presidente de la compañía Donald Kendall en donde Pepsi-Cola se une a Frito-Lay para convertirse en PepsiCo Inc. En ese mismo año la empresa lanza la primera botella plástica en la historia.

            Esta empresa usó el BigData como principal fortaleza para llegar a duplicar sus ventas y “comienzan un proyecto de consultoría y analítica avanzada con LUCA con el fin de entender mejor tanto a sus clientes como a los consumidores” (LUCA,2019). Lo que hicieron fue identificar insights o aprendizajes ejecutables para el negocio, el cual consiste en modelos analíticos que combinan la fuente de datos de un cliente, y demás fuentes externas.

            Lo que hace en general la plataforma de Big Data que tiene PepsiCo es que aconseja a las tiendas que productos comprar, donde colocarlos y hasta que promociones lanzar, además el lanzamiento de Quaker Overnight Oats le permite a la empresa identificar alrededor de 24 millones de hogares y donde dirigir su producto, saber en que lugar hay mayor probabilidad de que los usen, y crear las promociones adecuadas para cada sitio. Y no solo aplica para lo que venden, si no para las personas que lo hacen “PepsiCo cuenta con estrategias para su selección de personal, reclutamiento y capacitación” (Wikipedia, 20121)

            Además, PepsiCo hace uso de la inteligencia artificial para la lectura de millones de datos de su BigData y clasificarlos por categoría, lo que facilita el trabajo de distribución y producción de más de 10 productos que ellos poseen en su portafolio, por consiguiente, establecer puntos muy específicos de sus segmentos seleccionados y tener un crecimiento del 80% en su primer lanzamiento del uso de las herramientas ya mencionadas.

            En conclusión, desde el principio esta empresa decidió innovar, desde las botellas, hasta hoy en la actualidad el uso de millones de datos de las personas. El BigData ha ayudado en gran manera a un sin numero de empresas, pero PepsiCo es un claro ejemplo de cómo su producción puede aumentar si tan solo se ordena la gran información que se dispone en estos tiempos, y ordenara de manera que la empresa pueda no solo interpretar los resultados si no aplicarlos al mundo real.

Referencias bibliográficas:

https://es.wikipedia.org/wiki/PepsiCo

https://empresas.blogthinkbig.com/segmentacion-avanzada-pepsi-html/

ALPHABET.INC

Alphabet.Inc es una multinacional creada el 10 de agosto de 2015, su CEO es Larry Page y como Presidente Ejecutivo tenemos a Serguéi Brin los principales creadores de Google. En Althabet.Inc su principal filial es Google, un proyecto universitario creado en (1998) con el objetivo de administrar, distribuir y organizar datos en internet. Alphabet.Inc se comercializa a través de internet a nivel mundial. Google es una gran empresa en cuanto a la recopilación de datos se refiere ya que al adquirir los datos de sus usuarios, también los ofrece de manera indirecta a diferentes empresas tanto pequeñas, medianas y grandes,  por lo que todos podrían acceder a ella, actualmente su sede se encuentra en Mountain View, California, Estados Unidos.

Imagen: Línea del Tiempo de Google. Deutsche Welle (www.dw.com). (2015, 10 agosto). Google announces significant restructuring. DW.COM. https://www.dw.com/en/google-announces-significant-restructuring/a-18639710

Bajo Althabet.Inc se encuentran 7 empresas. Las principales empresas que se encuentran bajo Alphabet.Inc son Google, en (2013) Google crea Google capital con el fin de invertir en empresas establecidas que no han alcanzado la madurez necesaria. Calico (2013) es una empresa de Google que se encarga de la posibilidad de alargar la juventud a cargo de Cynthia Kenyon científica estadounidense y vicepresidenta de la empresa, Google Ventures (2009) esta empresa se encarga principalmente en la inversión en pequeñas empresas que están saliendo al mercado como startup, Xlab (2010) es una empresa destinada a la investigación entre ellos grandes avances para el futuro tecnológico. Fiber (2010) esta empresa de google busca ofrecer un servicio más rápido de internet utilizando fibra óptica. y Nest (2010) esta empresa ofrece dispositivos altavoces que te permiten variedad de opciones desde la nube para acceder a música, podcast, calendario, alarmas, notas, compras, etc. Alphabet.Inc crea Google Assistant el 18 de mayo de 2016, un asistente que mediante la voz podría ser capaz de programar los que su usuario le pidiese como alarmas, búsquedas, etc. Es muy importante destacar la existencia de todas estas empresas y específicamente las que se encuentran bajo el nombre de Google ya que estas son las que se encuentran directamente en relación con el consumidor y es una interacción neta sobre el manejo de datos. Es decir, que por ejemplo Youtube, Chrome e incluso el correo de Gmail son plataformas que brindan información exacta sobre sus usuarios a la empresa que ayuda a generar mayor exactitud a la hora de ofrecer servicios. Lo que hace que la interacción con los usuarios cada vez sea más personalizada.

Alphabet.Inc reconocida por Google ha ido creciendo a nivel mundial siendo el principal canal directo para las búsquedas en internet gracias a su eficacia, sin dejar de lado todas las empresas bajo su nombre que buscan facilitar mejorar la vida de sus usuarios. En la actualidad podemos ver cómo la empresa ha sido de gran ayuda y de ha ido adaptando a los cambios que la sociedad requiere en el momento que lo necesita como lo fueron el incremento de las ventas por medio de internet, popularizar sitios de empresas con ayuda de Marketing Digital, encontrar lugares gracias a sus mapas satelitales, y ayudar ofreciendo a las empresas de forma indirecta métodos de venta eficaces con los datos que Google posee de sus usuarios es por esto que su crecimiento ha colaborado a diferentes empresas a descifrar el comportamiento del consumidor debido a su manejo de datos, lo que ha permitido conocerlos a profundidad y que Google cada vez clasifique de forma efectiva a sus usuarios y logre  satisfacer sus necesidades de manera más acertada. Sin embargo es importante resaltar como Google con los años a facilitado la manera de adquirir los datos de sus usuarios que no es hasta la actualidad que provocó un llamado a la atención de los usuarios de cuánta información personal pueden tener google.

Google fue casi vendida en 2002 por Yahoo! Ya que intentó su compra por 3.000 millones de dólares que Google rechazó en la actualidad Google se encuentra valorada en un aproximado de más de 100.000 millones de dólares al año y que sigue incrementando debido a que Google se ha adaptado a los cambios y se encuentra en la búsqueda de nueva tecnología dándole cara al futuro, Google sin duda está entre las empresas más innovadoras con visión hacia el futuro como Amazon, Tesla, etc.

“9 de octubre de 2006 Google se hizo con YouTube, superando a competidores como Microsoft, Viacom o Yahoo!, por 1.650 millones de dólares.”


[1]R. (2018, 26 septiembre). Dos décadas de Google: los hitos que han hecho al gigante de internet tal y como lo conocemos. Marketing Directo. https://www.marketingdirecto.com/digital-general/digital/dos-decadas-de-google-los-hitos-que-han-hecho-al-gigante-de-internet-tal-y-como-lo-conocemos

Es importante resaltar a YouTube ya que es una empresa que ofrece servicios multimedia como música, videos, películas, tutoriales, etc. Que en la actualidad a llegado a ser la fuente de trabajo de millones de personas. También, Google mediante YouTube analiza tus intereses por lo que su algoritmo desarrolla sugerencias según tus búsquedas. Una creación que en la actualidad se considera como la mejor es la Asistente de Google llegando a superar al asistente de distintas marcas como Apple, Samsung o Amazon. La asistente de Google fue ganando popularidad con los años ya que ofrece facilitar al usuario distintas tareas como alarmas, calendarios, recordatorios, reproducción de música, llamadas, búsquedas en internet, etc. Actualmente y durante la cuarentena nuestro método de información y comunicación fue por medio de internet sobrepasando incluso las llamadas telefónicas o la televisión. Las personas nos dimos cuenta que no necesitábamos más que internet y un equipo con acceso a él para poder seguir comunicados e incluso trabajando.

Google tiene un registro de datos bastante amplio de sus usuarios y ha tenido diversos inconvenientes por su abuso a la privacidad como lo fue la reciente demanda por 5.000 millones donde “La denuncia sostiene que cuando un usuario opta por la navegación privada, la empresa utiliza otras herramientas de seguimiento que proporciona a los editores y anunciantes para controlar qué sitios web visita el usuario. Alphabet.Inc utiliza a todas sus empresas bajo google con el fin de obtener así información de sus usuarios. De hecho, Google recopila información de todos tus contactos en Google Meet, Gmail, YouTube, etc., y la relación entre estos forman una intrincada red de usuarios. Cabe recalcar que Google no solo tiene la información sobre lo que buscamos sino que también en que damos click, es decir los resultados.

“Google rastrea y recopilar el historial de navegación de los consumidores y otros datos de actividad en la web, independientemente de las medidas de protección que los consumidores adopten para proteger la privacidad de sus datos”

[2] Vega, G., & M.C.M. (2020, 3 junio). Google afronta una demanda de 5.000 millones por recolectar datos de usuarios en modo incÃ3gnito. EL PAÍS. https://elpais.com/tecnologia/2020-06-03/google-afronta-una-demanda-de-5000-millones-por-recolectar-datos-de-usuarios-en-modo-incognito.html

Actualmente existen grandes controversias sobre si Google manipula nuestras vidas de forma inconsciente, muchos relacionan esto por las sugerencias en búsquedas, como en YouTube, en películas, restaurantes, etc. Como sabemos al acceder a crear una cuenta ya sea YouTube o Gmail nosotros proporcionamos de forma voluntaria nuestra información e incluso en Google se ha popularizado las compras por internet y es donde nosotros incluimos nuestros datos bancarios, etc. Google tiene acceso a los datos personales de millones de personas y gracias a ello y a nuestros diferentes movimientos en sitios web, Google puede saber nuestro comportamiento rutinario, nuestros gustos por lo que vemos, oímos o compramos, lo que decimos y hasta donde acostumbramos ir o estar. No es de extrañar que los usuarios nos encontremos en una posición de vulnerabilidad actualmente cuando la sociedad está cambiando a una era más tecnológica.

Es por esto que es importante resaltar la importancia de la IA para lograr los estándares donde se encuentra actualmente Alphabet.Inc. Como empresa buscan aprovechar los datos adquiridos de sus usuarios en su almacenamiento y sus análisis de datos para así lograr el dominio en los diferentes campos ya sea salud, telecomunicación, web, etc. Alphabet.Inc como las diversas empresas tecnológicas están avanzando sin parar hacia el futuro, involucrándose en los diferentes campos. En la actualidad muchas personas recurren a revisar sus síntomas en caso de enfermedad obteniendo diagnósticos a un solo click y totalmente gratis. Si bien es cierto la tecnología ayuda a las personas en la actualidad en múltiples tareas facilitando la vida de los usuarios y es algo cierto que la era tecnológica va creciendo y ahora Google es la empresa que sabe cómo aprovechar su recopilación y manejo de datos, sin embargo, se debe llegar a un acuerdo sobre la privacidad en cuanto a datos y dar a conocer estas alternativas de privacidad forma más global para que las personas se sientan seguras con su interacción con internet. Sin duda, Alphabet.Inc y todas sus empresas ven hacia el futuro, ofreciendo más facilidad a los usuarios, sin embargo, al ser una empresa que tiene acceso a la información personal de todos sus usuarios y al manipular información privada del mundo puede llegar a generar grandes coyunturas ya que tenemos que tomar en cuenta que bajo Google están las principales empresas de uso diario de las personas lo que le brinda un gran poder sobre nosotros, nuestros datos, localización y lo que buscamos, es por ello que se debe buscar llevar las cosas de forma más responsable con sus usuarios para generar una gran relación en cuanto a quien maneja nuestros datos y no se llegue a grandes controversias como han ido pasando hasta la actualidad.

 Bibliografía:

H.W. (2021, 1 septiembre). Alphabet.Inc quiere liderar el sector salud utilizando su dominio en el análisis de datos. ESIC. https://www.esic.edu/rethink/tecnologia/alphabet-quiere-liderar-el-sector-salud-utilizando-su-dominio-en-el-analisis-de-datos

Nieto, N. (2014, 19 febrero). Google crea Google Capital para invertir en empresas. ComputerHoy. https://computerhoy.com/noticias/internet/google-crea-google-capital-invertir-empresas-9382

[1]R. (2018, 26 septiembre). Dos décadas de Google: los hitos que han hecho al gigante de internet tal y como lo conocemos. Marketing Directo. https://www.marketingdirecto.com/digital-general/digital/dos-decadas-de-google-los-hitos-que-han-hecho-al-gigante-de-internet-tal-y-como-lo-conocemos

[2]Vega, G., (2020, 3 junio). Google afronta una demanda de 5.000 millones por recolectar datos de usuarios en modo incÃ3gnito. EL PAÍS. https://elpais.com/tecnologia/2020-06-03/google-afronta-una-demanda-de-5000-millones-por-recolectar-datos-de-usuarios-en-modo-incognito.html

El Big Data de Apple Inc.

La innovación tecnológica se enfoca cada vez más en el estudio humano y en la recolección masiva de datos a medida de que se necesita conocer más al usuario y sus necesidades. Apple INC; es una empresa que se ha venido dedicando a este proceso ya varios años; empresa la cual se ha desarrollado en el mercado de la venta y desarrollo de tecnología; por ello es destacable presentar su caso. El progreso tecnológico de Apple ha sido muy destacable en el mundo de la tecnología llegando a tener mucha información de sus clientes para poder innovar cada vez más y brindar un servicio efectivo a sus clientes. La amplitud de la empresa ha llegado a todo el mundo y sus medios de comercialización son por medio de tiendas físicas y mediante internet, donde han logrado hacer que sus productos lleguen a todo el mundo. A continuación, se presentarán las formas y los desafíos que Apple ha tenido que pasar para llegar a ser una de las empresas con mayor impacto comercial tecnológico del mundo. 

Apple INC; es una multinacional que se dedica a la producción y comercialización de tecnología en el mundo, la empresa apareció en 1976 gracias a Steve Jobs y Steve Wozniack. En un inicio se dedicaban a la producción de ordenadores siendo pioneros de la empresa; siguiendo con este enfoque de mercado durante al menos 10 años, hasta que con la entrada del año 2000 la tendencia de producción comenzó a cambiar y comenzaron a ampliar su producción.(Biografía, 2017) En el año 2001 las nuevas tendencias tecnológicas avanzaron ampliando así sus horizontes y comenzaron a hacer nuevos productos de tecnología; entre los que más se destacan se encuentra el IPod junto con el sistema operativo OS X, ya que la era digital tendría un nuevo enfoque de simplificar acciones, ya que con este podrías almacenar tus fotos, videos y música en un mismo dispositivo. (Historia, 2021) Pocos años después en el 2007 aparece el famoso Iphone, el cual ha sido uno de sus productos insignia y ha sido además el que más ventas ha tenido en la historia de la compañía. Junto con esto, en el 2015 aparece el Apple Watch siendo este otro cambio de mercado y de producto objetivo que Apple decide realizar; siendo este aún más importante debido a que fue la cara para continuar con el desarrollo de la digitalización del mundo. 

El procesamiento de datos masivos hoy en día es uno de los principales medios de innovación para las empresas, ya que de esta manera logran conocer como está actuando su consumidor y de esta manera innovan sus métodos de trabajo para así lograr brindar un servicio eficaz y volver de esta manera aún mas sencillo el mundo tecnológico. Apple Inc, es una de las empresas que mejor maneja el procesamiento de datos, de tal forma que ha sido de ayuda para la creación de nuevos productos y también para la colaboración de proyectos con empresas de diferentes índoles en principal de la medicina. Sin embargo, hay que recordar que Apple en un inicio no tenía todo el conocimiento necesario para ser un ícono tecnológico; por ello se analizará los medios en los que la empresa se ha venido desarrollando a lo largo de los años en el mundo de la Big Data. Por lo que ellos decidieron innovarse y entrar en la grande competencia del manejo de datos para no quedarse atrás dentro de esta carrera tecnológica.

En un inicio para Apple el desarrollo de la Big Data fue todo un reto; la competencia tecnológica comenzaba a entrar en auge, donde empresas como Google y Sony ya tenían cierta experiencia en el manejo de la Big Data. (Historia, 2021) Todo esto gracias a que no tenían sistemas de procesamiento de información, si no que personas expertas en el caso se encargaban de la recopilación de datos, las cuales evidentemente no lograban cubrir las exigencias del mismo. (Marr, Linkedin , 2015) Pero sin mucha demora apple consiguió ser uno de los principales desarrolladores y procesadores de tecnología en el mundo; gracias a su gran impacto en el mercado de teléfonos moviles en el 2007, consiguieron expandir ampliamente su mercado y así inició la recopilación de información masiva. Previamente se habían venido realizando estudios para mejorar el desempeño del Ipod, ya que este era un producto muy eficaz para la reproducción de multimedia, pero vieron que tenía ciertas limitantes; ya que la tendencia apuntaba a que se compraba un Ipod y aparte un celular de otra marca. Ante esto, Apple decidió simplificar de cierta forma este proceso, al crear su producto insignia, lo cual les signficó un éxito rotundo ya que gracias a este, Apple se convirtió en la primera empresa en ganar 1 billón de dólares en ventas. (Lee, 2018)

A medida que la empresa iba ganando más experencia en el manejo de información, se volvieron más competitivos, y supieron desarrollar de manera eficaz nuevos productos que ayudarían a cumplir con sus objetivos; la búsqueda de la simplicidad y conexión completa entre todos sus dispositivos. Ellos buscaban que la conectividad entre los diferentes productos de apple sea una herramienta para que las personas se encuentren más conectadas. Por ello con el desarrollo de la nube (Icloud); ellos se vieron capaces de desarrollar un espacio para el mejor desarrollo de tecnología y el paso de información a través de este medio. (Apple, Apple, 2021) La competencia siempre ha sido una cuestión que preocupación para las grandes empresas, sin embargo Apple siempre ha estado un paso adelante; y además otra complicación que la empresa ha sabido solucionar de manera eficaz ha sido el desarrollo de tecnología como tal, ya que comprtir información entre diferentes dispositivos fue un reto que supieron sobrepasar eficientemente. 

El uso y manejo del análisis de datos en la empresa fue un factor que ayudó a la misma a que esta de desarrolle de manera muy efectiva. Apple ha venido innovando sus productos y sus servicios en base al criterio de sus clientes; todo esto gracias a la evaluación que estos realizan mediante sus productos para comentar acerca de su experiencia con los sistemas operativos. Además, apple siempre está recolectando información de manera contínua como parte del funcionamiento de los equipos. (Marquez, 2015)  Esta información ha ayudado a crear las diferentes versiones de Iphone para diferentes mercados y clientes (Iphone 11, Iphone 11 pro MAX), viendose un beneficio mutuo en tema de ganancias y desarrollo de tecnología. Otro beneficio del procesamiento de datos ha sido el apoyo al medio ambiente por parte de la empresa ya que la digitalización de los datos han sido una ayuda a bajar los niveles de contaminación, viendose así un beneficio indirecto del manejo de datos por parte de la empresa. Se conoce que Apple realiza solicitudes a sus clientes para que ayude a generar mejoras en sus productos, esto se realiza de manera anónima y además también se recopilan datos acerca del uso de los productos. Como caso específico el apple watch, con el cual se ha evaluado de una manera más directa al usuario. Y con este producto se destaca un caso específico; donde en 2015 se realizó un convenio entre Apple e IBM para generar un estudio acerca de la salud de los usuarios que posean apple watch, para de esta manera generar alternativas de consumo de alimentos que ayuden a que el usuario tenga mejor actividad. (Marr, Tech target, 2015) Todo esto, basandose en la información recopilada por parte de los relojes. 

            La inteligencia artificial también ha jugado un papel muy importante en el desempeño eficaz de Apple, ya que gracias a Siri, ellos han sido capaces de llenarse de mucha información valiosa de los clientes ahora de una manera aún más sencilla. Ya que Siri es una aplicación que es capaz de escuchar la información que se esta buscando o hablando, y en base a códigos la aplicación siempre va a tratar de ayudar con el manejo de la misma. (Apple, Apple, 2021) Además, de que siri como tal tiene acceso a mucha información de la web, por lo que cuando se realiza una búsqueda, siempre se da a conocer información válida sobre el producto o tema que se quiera proporcionar. Otra virtud de siri es que puede manejar el equipo mediante el control por voz, dado que tiene este sistema de reconocimiento auditivo y la total libertad para navegar dentro del celular para de esta manera agilitar los procesos de búsqueda o cual sea la actividad requerida por el usuario. (Marr, Tech target, 2015) El manejo de este sistema ha hecho que Apple se vuelva una empresa muy cotizada por la simplicidad de sus productos y el facil manejo de los mismos, ya que el sistema operativo y el alcance de información es muy sencillo de manejar por parte de los usuarios. Esto ha generado que cada vez más se busque mejorar el producto como tal y así brindar una mejor experiencia del mismo a los usuarios y hasta de una manera, volver a estos dependientes de la marca para que se automaticen sus actividades, ya que al día de hoy existe un producto Apple para todas las actividades; siendo esto un beneficio muy importante para la empresa; por ello es que la empresa cada vez conoce más a sus clientes y se crea una relación entre la marca y el consumidor que hace que se genere empatía en la compra; siendo este un factor importante para sus ventas. 

El desarrollo tecnologico siempre impulsará a la innovación y al cambio en el proceso de obtención de datos. Las nuevas tecnologías ocuparan un nuevo campo de trabajo en donde el que sepa manejarlas de mejor manera será el más exitoso. Apple va en un buen camino con el manejo y procesamiento de datos; el cual ha sido de mucha ayuda para que ellos alcancen el éxito que tienen hoy en día, tanto para el desarrollo de nuevos productos, la innovación de las diferentes plataformas, la busqueda de conectividad y simplificación de actividades y procesos, entre otros más usos que se han observado que la información que proporcionan los usuarios es muy valiosa. Queda mencionar que cada vez se buscará mejorar el sistema tecnológico para que de esta manera los productos hagan del día a día una experincia mucho más comoda y amigable. Y sin duda Apple Inc, es una de las empresas que mejor está acoplandose a este mundo de cambios constantes. 

Bibliografía

Apple. (2021). Apple. Obtenido de Apple at work: https://www.apple.com/es/business/ 

Apple. (2021). Apple. Obtenido de Compartir información de análisis, diagnóstico y uso con Apple : https://support.apple.com/es-mx/HT202100 

Biografía, H. (11 de 2 de 2017). Historia- Biografía. Obtenido de Historia de Apple: https://historia-biografia.com/historia-de-apple/ 

Historia, C. (7 de 1 de 2021). Curiosfera. Obtenido de Historia de Apple – Origen y creador: https://curiosfera-historia.com/historia-de-apple/

Marr, B. (22 de 5 de 2015). Tech target. Obtenido de Cómo Apple usa Big Data para impulsar el éxito: • https://www.datasciencecentral.com/profiles/blogs/how-apple-uses-big-data-to-drive-success

Lee, D. (27 de 9 de 2018). BBC NEWS MUNDO. Obtenido de Apple-I: cómo era el primer modelo de computadora fabricado por Apple (que acaba de venderse por US$375.000) : https://www.bbc.com/mundo/noticias-45666192 

Marquez, J. V. (2015). Academia. Obtenido de Análisis estratégico de la empresa apple inc.: • https://www.academia.edu/16551632/An%C3%A1lisis_Estrat%C3%A9gico_de_APPLE_Inc

Marr, B. (15 de 4 de 2015). Linkedin . Obtenido de Apple & IBM Team Up For New Big Data Health Platform : https://www.linkedin.com/pulse/apple-ibm-team-up-new-big-data-health-platform-bernard-marr/

Walmart y el Big Data

Walmart es una de las empresas más grandes y poderosas del mundo. La multinacional americana funciona como una cadena de hipermercados que genera ingresos millonarios cada semana; pues, al vender productos al por menor, Walmart tiene un éxito inigualable a escala mundial. El lema de la empresa está enfocado en “ahorrar dinero y vivir mejor”; y según BBVA (2018) dicha cadena “tiene 20.000 tiendas en 28 países”. La sede principal de Walmart está ubicada en Bentonville, Arkansas, pero la compañía no opera solamente en Estados Unidos sino también en Canadá, México, Chile, Brasil, Argentina y Centroamérica. Además, la multinacional es conocida como “Asda” en el Reino Unido, “BestPrice” en India y como  “GrupoSeiyu” en Japón. Por otro lado, Walmart también se maneja mundialmente por medio de los almacenes conocidos como Sam’s Club, los cuales son una extensión de la cadena.

La mente maestra detrás de Walmart es Sam Walton, quien inauguró la primera tienda en 1962. Sin embargo, para alcanzar el éxito que lo caracteriza, Walton tuvo que sobrepasar varios obstáculos; comenzando por el hecho de que nació en una familia humilde. Cerca de 1942 Walton se enlistó para ir a la guerra, pero regresó a casa en 1945 y fue ese mismo año cuando abrio su primera tienda departamental. Cinco años más tarde, se mudo a Arkansas parar abrir “Walton’s 5&10”. (Diario de Finanzas. s/p. 2020). Esta tienda ofrecia precios realemente bajos y eso aseguró su rapido éxito. En 1962 el socio de Walton, Bob Bogle, le sugirió cambiar el nombre de la empresa, y así es como surgió el -ahora- mundialmente conocido “Walmart”; título que nace gracias a un juego de palabras entre el apellido de Sam Walton (walt) y la palabra mercado en inglés (mart).

Ahora bien, ¿qué sabemos sobre Walmart y su relación con el Big Data[1]? Pues, la cadena de hipermercados lo utiliza de diversas maneras aprovechando los beneficios que el análisis de datos otorga a su empresa. Walmart tiene un amplio ecosistema de big data el cual, todos los días, procesa múltiples terabytes de datos nuevos y petabytes de datos históricos. (ProjectPro. s/f).  Los sistemas de análisis que posee Walmart analizan aproximadamente 100 millones de palabras clave diariamente; pues, el objetivo principal del big data en Walmart “is to optimize the shopping experience for customers when they are in a Walmart store, or browsing the Walmart website or browsing through mobile devices when they are in motion.” (ProjectPro. s/f). El Big Data en Walmart permite que la empresa tenga un contacto directo con el cliente por medio de aplicaciones como Savings Catcher; la cual alerta a los clientes cuando el supermercado competidor reduce el costo de un artículo que ese cliente ya compró. La aplicación envía un cupón de regalo al cliente para compensar la diferencia de precio y así no llamar su atención para que continúe comprando siempre en Walmart.

De igual manera, la multinacional utiliza el big data en el área de farmacia realizando simulaciones que descubren cuántas prescripciones médicas se reciben diariamente para identificar el tiempo más ajetreado durante un día o un mes. (Walmart Staff. 2017. s/p). Por otro lado, Walmart está testeando cómo utilizar big data para mejorar la experiencia del ‘checkout’ en las tiendas “by using predictive analytics, stores can anticipate demand at certain hours” (Walmart Staff. 2017. s/p). Al hacer esto, se puede incluso determinar cuantos cajeros necesitan estar presentes en un día y hora específicos. Asimismo, Walmart utiliza simuladores para comprender y rastrear el recorrido de su mercancía, desde el muelle hasta la tienda; optimizando rutas y minimizando la manipulación de productos antes de que estos lleguen al cliente[2]. (Walmart Staff. 2017. s/p). Por medio del análisis de datos, Walmart reconoce preferencias y patrones de compra de los clientes; y así, la compañía puede “accelerate decision-making on how to stock store shelves and display merchandise”. (Walmart Staff. 2017. s/p). Ergo, el análisis de big data proveé una mirada interna de los productos y de las marcas que más benefician a la compañía. Finalmente, el análisis de datos permite que Walmart identifique las preferencias de los compradores para desarrollar una experiencia de compras personalizada y encantadora. (Walmart Staff. 2017. s/p).

Como vemos, Walmart utiliza la minería de datos para descubrir patrones en las ventas, y un ejemplo conocido de aquello fue cuando la empresa descubrió que las ventas de tartas de fresa aumentaron 7 veces antes de un huracán. (ProjectPro. s/f). Walmart rastrea a cada consumidor individualmente recopilando información sobre lo que compran, dónde viven y cuáles son los productos que más les gusta. Walmart está aprovechando los datos de las redes sociales para conocer los productos que están de moda y así exhibirlos en las tiendas.

En conclusión, se puede demostrar que Walmart, al ser una empresa tan poderosa a nivel mundial hace uso del big data de manera eficiente y beneficiosa para su crecimiento. El objetivo que busca Walmart al utilizar big data es conocer a sus clientes, entenderlos y ofrecerles lo que buscan de manera eficiente y cómoda. Al ser una empresa tan grande, Walmart tiene muchas problemáticas por resolver con el apoyo de big data, y han implementado un departamento eficaz que permite a la compañía abordar cada problemática por medio del análisis de datos. Los desafíos que ha demostrado tener Walmart es principalmente la competencia de otros supermercados que ofrecen precios bajos a sus clientes; sin embargo, se han ideado maneras de enfrentarlos -justamente- gracias al big data. Hoy por hoy Walmart conoce a sus clientes por redes sociales, principalmente, pero también por supuesto por patrones de comportamiento en las compras, horarios, y productos que se adquieren. Ha quedado entonces claro que Walmart es una empresa que usa efectivamente el big data.

Bibliografía:

BBVA. (2018) “Tres multinacionales explican cómo el ‘big data’ revolucionó su negocio”. Big Data. Septiembre, 10. Tomado de: https://www.bbva.com/es/tres-multinacionales-explican-big-data-revoluciono-negocio/

Diario de Finanzas. (2020). La historia detrás de Walmart: ¿por qué la tienda se llama así? Octubre, 18. Tomado de: https://eldiariodefinanzas.com/la-historia-detras-de-walmart-por-que-la-tienda-se-llama-asi/

ProjectPro. (2021). “How Big Data Analysis helped increase Walmarts Sales turnover?”. Enero, 25. Tomado de: https://www.dezyre.com/article/how-big-data-analysis-helped-increase-walmarts-sales-turnover/109Walmart Staff. (2017). “5 Ways Walmart Uses Big Data to Help Customers.” Agosto, 17. Tomado de: https://corporate.walmart.com/newsroom/innovation/20170807/5-ways-walmart-uses-big-data-to-help-customers


[1] “Big Data (…) describe el gran volumen de datos, tanto estructurados como no estructurados, que inundan los negocios cada día”. (PowerData. s/f). Pero lo importante del big data no es la cantidad de datos que se consiguen sino lo que las empresas deciden hacer con ellos posteriormente. De allí surge el beneficio que puede otrogar el big data si este es bien manejado.

[2] De igual manera, el big data colabora, en este caso, para minimizar costos y organizar horarios de transportes.

La era de la Información

Photo by Pixabay on Pexels.com

La revolución industrial marcó un punto de inflexión en la historia económica, hubo un cambio del estancamiento económico de varios siglos hacia el crecimiento sostenido de la renta per cápita y una mejora en los estándares de la sociedad y de la calidad de vida.

Este cambio sin precedentes significó que, por ejemplo, el PIB per cápita en los Estados Unidos creciera en casi un 50% en medio siglo. A pesar de que se trata de un enorme incremento, por otro lado, el PIB per cápita aumentó en la misma cantidad, en la mitad del tiempo a partir de 1980, impulsado en parte por la proliferación de las tecnologías digitales. Estas cifras confirman el alcance y la velocidad del efecto de la revolución digital en la sociedad, la última revolución que está cambiando y seguirá cambiando las estructuras de la economía tal como la conocemos, y hacen evidente que estamos viviendo la “Era de la Información”. (Vidal, 2015)

Los indicadores económicos confirman que, al igual que la revolución industrial generó una aceleración de la economía mundial durante los siglos 19 y 20, la revolución digital está generando la siguiente aceleración. “Estamos viviendo en la era de la información”

Al vivir en esta era, se observa permanentemente como terabytes o petabytes de datos se vierten en nuestras redes informáticas, en el internet y los dispositivos de almacenamiento de datos todos los días: de negocios, de información social, de ciencia e ingeniería, de medicina, y de casi todos los demás aspectos de la vida diaria. Este crecimiento explosivo del volumen de datos disponibles es el resultado de la informatización de nuestra sociedad y el rápido desarrollo de potentes herramientas de almacenamiento de datos. (Han, Kamber, & Pei, 2012)

Sin embargo, este crecimiento exponencial en la cantidad de la información que hoy en día se genera, representa para las empresas, algunas consecuencias importantes. En primer lugar, tienen que focalizar la atención, es decir asegurarse que las personas se centran en el conjunto adecuado de temas, evitando la distracción que se puede generar por la abrumadora cantidad de información. En segundo lugar, las empresas tienen que conseguir el equilibrio adecuado entre la información y el juicio para tomar decisiones importantes, Jeff Bezos, fundador y CEO de Amazon, observó que existen dos tipos de decisiones: “Las que se pueden tomar por análisis, y las que se deben tomar en base al juicio y la intuición”. (Birkinshaw, 2014)

Por tanto, en la era de la información, los profesionales más exitosos serán aquellos que inteligencien de mejor manera la información y favorezcan la acción sobre el análisis y aprovechando la intuición y el sentimiento en combinación con el análisis racional.

Bibliografía

Birkinshaw, J. (1 de Junio de 2014). Beyond the Information Age. Obtenido de Wired: https://www.wired.com/insights/2014/06/beyond-information-age/

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Vidal, A. (9 de Julio de 2015). The digital era and its role in the economy. Obtenido de CaixaBank Research: http://www.caixabankresearch.com/en/-/la-era-digital-y-su-papel-en-la-economia-d2

Método de Asociación – Algoritmo Apriori

Los métodos de asociación o relación son probablemente las técnicas de minería de datos más conocidas, familiares y sencillas. Normalmente, se hace una correlación simple entre dos o más artículos, a menudo del mismo tipo para identificar patrones. Uno de los ejemplos más conocidos, es el análisis del   de compras, analizando los hábitos de compra de la gente, es posible identificar que un cliente siempre compra crema chantilly cuando compra fresas, por lo tanto, se puede predecir que la próxima vez que compre fresas también podría comprar crema chantilly. (Brown, 2012)

Estas técnicas son utilizadas para encontrar conjuntos de elemento frecuentes en los grandes conjuntos de datos. Este tipo de hallazgos ayuda a las empresas a tomar ciertas decisiones, como: el diseño de catálogos, marketing cruzado y el análisis de comportamiento de compra de los clientes. Los algoritmos de reglas de asociación deben ser capaces de generar reglas con niveles de confianza menores a uno. Sin embargo, el número de posibles reglas de asociación para un determinado conjunto de datos es generalmente muy grande y una alta proporción de las reglas son generalmente de poco valor, si existen. (Ramageri, 2010)

A priori es un algoritmo pionero, propuesto por R. Agrawal y R. Srikant en 1994 para minar conjuntos de elementos. El nombre del algoritmo está basado, en que usa el conocimiento preliminar (a priori) de las propiedades frecuentes de los conjuntos de elementos. (Han, Kamber, & Pei, 2012)

El algoritmo Apriori no analiza patrones, sino que genera y cuenta conjuntos de elementos candidatos. Un elemento puede representar un evento, un producto o el valor de un atributo, dependiendo del tipo de datos que se analice. Las variables booleanas, que representan un valor Sí/No o Existe/Falta, se asignan a cada atributo, como un nombre de producto o evento. Como se mencionó previamente, un análisis de carro de compras es un ejemplo de un modelo de reglas de asociación que utiliza variables booleanas para representar la presencia o ausencia de determinados productos en la cesta de la compra de un cliente. (Microsoft, 2015)

Para cada conjunto de elementos, el algoritmo crea puntuaciones que representan el soporte y la confianza. Estas puntuaciones se pueden usar para clasificar y derivar reglas interesantes de los conjuntos de elementos. Los modelos de asociación se pueden crear también para atributos numéricos. Si los atributos son continuos, los números se pueden transformar en números discretos o agruparse, y luego los valores de datos discretos se pueden tratar como booleanos o como pares atributo-valor. (Microsoft, 2015)

Para analizar y establecer los valores el algoritmo crea combinaciones con los conjuntos de ítems a ser analizados, por ejemplo, si se requiere analizar una base 10 productos, para extraer las reglas se debe realizar combinaciones de estos productos, esto sería 1024 posibles combinaciones, para 20 serian 1,048,576 posibles combinaciones. Por tanto, este algoritmo tendría una complejidad exponencial. (Pitol, 2014)

El algoritmo Apriori consta de dos pasos:

  1. Generación de combinaciones frecuentes: cuyo objetivo es encontrar aquellos conjuntos que sean frecuentes en la base de datos.
  2. Generación de reglas: a partir de los conjuntos frecuentes se generan reglas.

Donde, el índice para la generación de combinaciones se llama soporte y el índice para la generación de reglas se llama confianza. Para el modelo se deberán establecer valores mínimos para los índices de soporte y confianza. (Pitol, 2014)

Bibliografía

Brown, M. (11 de Diciembre de 2012). IBM Developer Network. Obtenido de IBM: http://www.ibm.com/developerworks/library/ba-data-mining-techniques/

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Microsoft. (2015). Microsoft Developer Network. Obtenido de https://msdn.microsoft.com/en-us/library/ms174949.aspx

Pitol, F. (4 de Mayo de 2014). Reglas de asociación, algoritmo apriori. Obtenido de Blog de Inteligencia Artificial: http://ferminpitol.blogspot.com/2014/05/reglas-de-asociacion-algoritmo-apriori.html

Ramageri, B. (2010). Data Mining Techniques And Applications. Indian Journal of Computer Science and Engineering, 1(4), 301-305.

Métodos de Partición

La versión más simple y fundamental de los métodos de segmentación son los métodos de partición, estos organizan los objetos de un conjunto en varios grupos exclusivos o clústers. En estos métodos el número de grupos se da como el conocimiento previo, siendo este parámetro es el punto de partida para los métodos de partición. Normalmente el número de clústers tendrá la nomenclatura “k”. (Han, Kamber, & Pei, 2012)

Los clústers se forman para optimizar un criterio de partición objetivo, tal como una función de disimilitud basado en la distancia, de modo que los objetos dentro de un grupo son similares entre sí y diferentes a los objetos en otros grupos en términos de los atributos del conjunto de datos. (Han, Kamber, & Pei, 2012)

En las áreas de marketing y gestión de relaciones, estos algoritmos utilizan los datos del cliente para realizar un seguimiento del comportamiento del cliente y crear iniciativas estratégicas de negocio. Las organizaciones pueden dividir de este modo a sus clientes en segmentos basados en variantes como la demografía, el comportamiento del cliente, la rentabilidad del cliente, medida de riesgo, y el valor de vida del cliente o una probabilidad de retención. (SAP, 2016)

Existen 2 técnicas principales dentro de los métodos de partición:

  • Técnicas basadas en Centroides
  • Técnicas basadas en un Objeto Representativo

k-Means: Técnica Basada en un Centroide

Posiblemente la técnica más popular de segmentación, k-means agrupa n observaciones o registros en k agrupaciones en las que cada observación pertenece a la agrupación con el centro más cercano. La agrupación funciona para agrupar los registros juntos de acuerdo a un algoritmo o fórmula matemática que intenta encontrar centroides, o centros, en torno al cual gravitan registros similares. (Thirumuruganathan, 2010)

El algoritmo se compone de los siguientes pasos:

  1. Elige aleatoriamente k artículos y los determina como los centroides iniciales.
  2. Para cada punto del set de datos, busca el centroide más cercano y asigna el punto al clúster asociado con el centroide más cercano.
  3. Actualiza el centroide de cada grupo sobre la base de los elementos de esa agrupación. El nuevo centroide será el promedio de todos los puntos de la agrupación.
  4. Repite los pasos 2 y 3, hasta que ninguno de los puntos cambia de clúster.

k-Medoids: Técnica Basada en un Objeto Representativo

La técnica k-means es muy sensible a los valores atípicos, ya que estos pueden estar muy lejanos de la mayoría de los puntos; y, por tanto, distorsionar el valor medio del clúster. Este efecto, puede de manera inadvertida cambiar la asignación de los otros datos, durante el proceso de segmentación. (Han, Kamber, & Pei, 2012)

La técnica k-medoids busca corregir está desviación que puede generarse; y, propone en lugar de determinar un punto medio para calcular la distancia entre los puntos, tomar como punto medio uno de los datos dados, un objeto representativo, que actuará como centroide, y el resto de los datos es asociado al clúster en función de la distancia con el centroide.  (Han, Kamber, & Pei, 2012)

De la misma manera que en la técnica k-means, el objeto representativo que actuará como centroide es elegido arbitrariamente, e iterativamente se van tomando todos los posibles objetos para actuar como centroides, y se repite hasta que al variar los centroides la sumatoria de las distancias de los puntos con los centroides no pueda optimizarse. (Han, Kamber, & Pei, 2012)

El algoritmo se compone de los siguientes pasos:

  1. Elige aleatoriamente k artículos y los determina como los centroides iniciales.
  2. Para cada punto del set de datos, busca el centroide más cercano y asigna el punto al clúster asociado con el centroide más cercano.
  3. Actualiza el centroide de cada grupo sobre la base de los elementos de esa agrupación. El nuevo centroide será cualquier otro de los puntos de la agrupación, escogido aleatoriamente.
  4. Calcular sumatoria de las distancias de los puntos con los centroides
  5. Repite los pasos 2, 3 y 4 hasta que el valor mínimo de la sumatoria no pueda optimizarse.

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Man, I. (11 de Junio de 2015). Cross Validated. Obtenido de http://stats.stackexchange.com/questions/156210/difference-between-k-means-and-k-medoid

SAP. (2016). SAP Hana Predictive Analysis Library. Obtenido de k-Means: http://help.sap.com/saphelp_hanaplatform/helpdata/en/53/e6908794ce4bcaa440f5c4348f3d14/content.htm

Sensation. (02 de Febrero de 2013). K-Medoids. Obtenido de Sensation Data And Knowledge Engineering / Hodgepodge: http://sens.tistory.com/297

Thirumuruganathan, S. (25 de Enero de 2010). K-Means Clustering Algorithm. Obtenido de https://saravananthirumuruganathan.wordpress.com/2010/01/27/k-means-clustering-algorithm/

Método de Jerarquización

Los métodos de jerarquización buscan segmentar los datos en jerarquías o árboles de clústers. La representación de los datos de una manera jerarquizada, es útil para resumir y visualizar los datos. Si bien estos métodos segmentan la información de una forma jerarquizada, la data puede no estarlo y no tener una relación evidente de jerarquización, los datos tienen una estructura jerárquica subyacente que es la que se pretende descubrir. (Han, Kamber, & Pei, 2012)

Los métodos de agrupamiento jerárquico pueden encontrar dificultades en cuanto a la selección de los puntos de fusión o los puntos de división. Estas decisiones son críticas, porque una vez que un grupo de objetos se fusiona o se separan, el proceso en el paso siguiente operará en los clústers generados. El proceso no deshará lo realizado previamente, ni llevará a cabo el intercambio de objetos entre los clústers. Por lo tanto, las decisiones de fusión o división, si no está bien elegidas, pueden dar lugar a clústers de baja calidad. Por otra parte, los métodos no se escalan bien, porque cada decisión de fusión o escisión necesita examinar y evaluar muchos objetos o clústers. (Han, Kamber, & Pei, 2012)

Los métodos de agrupamiento jerárquico pueden ser: de aglomeración o de división, dependiendo de si la descomposición jerárquica se generar de abajo hacia arriba (aglomeración) o arriba hacia abajo (división). (Han, Kamber, & Pei, 2012)

Método de Jerarquización Aglomerativo

Un método de agrupamiento jerárquico de aglomeración utiliza una estrategia de abajo hacia arriba. Por lo general comienza por dejar que cada objeto forme su propio clúster y de forma iterativa fusiona los clústers en grupos cada vez más grandes, hasta que todos los objetos están en un solo grupo o ciertas condiciones de terminación están satisfechas. El clúster único se convierte en la raíz de la jerarquía. El proceso de fusión integra los dos grupos que están más cerca entre sí, de acuerdo con alguna medida de similitud, y combina los dos para formar un clúster. Cada iteración fusiona dos clústers, donde cada clúster contiene al menos un objeto. (Han, Kamber, & Pei, 2012)

Método de Jerarquización Divisorio

A la inversa del método anterior, un método de agrupamiento jerárquico divisorio emplea una estrategia de arriba hacia abajo. Se inicia mediante la colocación de todos los objetos en un clúster, que es la raíz de la jerarquía. Luego se divide el clúster raíz en varios subgrupos más pequeños, y de forma recursiva las particiones de esas agrupaciones en otras más pequeñas. El proceso de partición continúa hasta que cada grupo en el nivel más bajo es coherente suficiente, ya sea que contiene sólo un objeto o los objetos dentro de un grupo son suficientemente similares entre sí. (Han, Kamber, & Pei, 2012)

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Método de Segmentación (Clustering) basado en Densidad

Los métodos de partición y jerarquización están diseñados para encontrar clúster de forma esférica, sin embargo, estos tienen dificultad para encontrar clústers que se presentan con formas arbitraria como la forma de “S” u ovales. Con datos de esta naturaleza, los métodos anteriormente descritos tienen una probabilidad alta de segmentar incorrectamente clústers cuando la distribución de los datos se presenta en formas irregulares, donde el ruido o los valores atípicos se incluyen en los grupos. (Ester, Kriegel, Sander, & Xu, 2007)

Para encontrar clúster de formas arbitrarias, se puede modelar los clústers como regiones densas en el espacio de datos, separadas por regiones dispersas. Esta es la principal estrategia detrás de la agrupación métodos basados en la densidad, lo que puede descubrir grupos de forma no esférica. (Mann & Nagpal, 2001)

La densidad de un objeto se puede medir por el número de objetos cercanos al mismo. Por tanto, los métodos basados en densidad encuentran los objetos principales, es decir, los objetos que tienen los barrios densos, y conectan los objetos principales y sus barrios para formar regiones densas, clústers. La idea clave es que por cada punto de un clúster de la zona de un radio dado tiene que contener al menos un número mínimo de objetos. La forma del clúster estará determinada por la función de la distancia entre dos objetos. (Ester, Kriegel, Sander, & Xu, 2007)

El algoritmo DBSCAN, (Cluster Espacial Basado en Densidad para Aplicaciones con Ruido), uno de los principales algoritmos de los métodos basados en densidad, requiere dos variables de entrada:

  • El radio que delimita el área del barrio de un punto (Eps)
  • El número mínimo de puntos requeridos para formar un cluster (minPts).

Los puntos principales residen en el interior del cluster, y se sitúan dentro del radio Eps y son uno de los puntos mínimos que conforman el clúster. Por otro lado, los puntos fronterizos, se sitúan en la parte exterior del clúster, aunque también están dentro del radio Eps. (Mann & Nagpal, 2001)

El algoritmo DBSCAN se compone de los siguientes pasos:

  1. Seleccionar un punto de manera arbitraria.
  2. Obtener la densidad alcanzable desde cada punto, dentro del rango Eps y MinPts todos los puntos.
  3. Si el punto analizado:
    1. Es un punto central se forma clúster.
    1. Es un punto frontero, el algoritmo visita el siguiente punto de la base de datos.
  4. Continuar el proceso hasta que todos los puntos han sido procesados

Bibliografía

Ester, M., Kriegel, H.-P., Sander, J., & Xu, X. (8 de Enero de 2007). A Density-Based Algorithm for Discovering Clusters. Obtenido de Proceedings of 2nd International Conference on Knowledge Discovery and Data Mining: http://www2.cs.uh.edu/~ceick/7363/Papers/dbscan.pdf

Mann, P., & Nagpal, P. (11 de Agosto de 2001). Comparative Study of Density based Clustering Algorithms. Obtenido de International Journal of Computer Applications: http://www.ijcaonline.org/volume27/number11/pxc3874600.pdf

Método Segmentación (clustering) basado en Grilla

Los métodos de clustering basados en grilla, difieren de otros métodos en que clusterizan la data basados en el espacio que la contiene y no en la data como tal; los clústers se generan mediante la partición del espacio en celdas, sin tomar en cuenta la distribución de la data. Este método cuantifica el espacio de objetos en un número finito de celdas que forman una estructura de grilla sobre la que se realizan todas las operaciones para la agrupación. (Borisov & Grabusts, 2002)

La principal ventaja de este enfoque es su tiempo de procesamiento rápido, que es típicamente independiente del número de objetos de datos, sin embargo, depende de sólo el número de células en cada dimensión en el espacio cuantificada. (Wang, 2015)

En general, los algoritmos de segmentación basado en grilla; típicamente constan de los siguientes cinco pasos básicos: (Borisov & Grabusts, 2002)

  1. Creación de la estructura de grilla, es decir, la partición del espacio de datos en un número finito de células.
  2. Cálculo de la densidad celular para cada celda.
  3. Clasificación de las células de acuerdo con sus densidades.
  4. Identificación de los centros de los clusters.
  5. Recorrido por los bloques vecinos.

Bibliografía

Borisov, A., & Grabusts, P. (2002). Using Grid-clustering Methods in Data Classification. Obtenido de Decision Support Systems Group Institute of Information Technology : https://www.semanticscholar.org/paper/Using-Grid-Clustering-Methods-in-Data-Grabusts-Borisov/2c9a1f9c87658c7c4ada5d01fb73cf89591fbaff/pdf

The MathWorks Inc. (2016). The MathWorks – Documentation. Obtenido de What Is the Genetic Algorithm?: http://www.mathworks.com/help/gads/what-is-the-genetic-algorithm.html?requestedDomain=www.mathworks.com

Wang, H. (1 de Noviembre de 2015). Density-Grid based Clustering Algorithms. Obtenido de http://11hcw.me/density-grid-based-clustering-algorithms-on-data-streams/

Árboles de Decisión

Un árbol de decisión es una estructura que se puede utilizar para dividir una gran colección de registros en conjuntos sucesivamente más pequeños de los registros por la aplicación de una secuencia de reglas de decisión simples. Con cada división sucesiva, los miembros de los conjuntos resultantes se vuelven más y más similares entre sí. La variable de destino es normalmente categórica y el modelo de árbol de decisión utiliza, ya sea para calcular la probabilidad de que un registro dado pertenezca a cada una de las categorías, o para clasificar el registro asignándole a la clase más probable. Los árboles de decisión también se pueden utilizar para estimar el valor de una variable continua, aunque hay otras técnicas más adecuadas para esa tarea. (Berry & Linoff, 2004)

Un árbol de decisión representa una serie de preguntas tales que la respuesta a la primera pregunta determina la pregunta siguiente. Las preguntas iniciales crean grandes categorías con muchos miembros, y las siguientes preguntas dividen las categorías generales en conjuntos más y más pequeños. Si las preguntas son bien elegidas, una serie sorprendentemente corta de iteraciones son suficientes para clasificar con precisión los registros de datos. Existen diferentes algoritmos para la elección de la prueba inicial, pero el objetivo es siempre el mismo: elegir la prueba que mejor discrimina entre las clases de objetivos. Este proceso se repite hasta que el registro llega a un nodo hoja. Todos los registros que terminan en una hoja determinada del árbol se clasifican de la misma manera. Hay un único camino desde la raíz hasta cada hoja. Ese camino es una expresión de la regla utilizada para clasificar los registros. Diferentes hojas pueden hacer la misma clasificación, aunque cada hoja pudo haber realizado la clasificación por un camino diferente. (Berry & Linoff, 2004)

El algoritmo de árboles de decisión genera un modelo de minería de datos mediante la creación de una serie de divisiones en el árbol. Estas divisiones se representan como nodos. El algoritmo agrega un nodo al modelo cada vez que una columna de entrada tiene una correlación significativa con la columna de predicción. La forma en que el algoritmo determina una división varía en función de si predice una columna continua o una columna discreta. (Microsoft, 2015)

El algoritmo de árboles de decisión utiliza la selección de características para guiar la selección de los atributos más útiles. Todos los algoritmos de minería de datos utilizan la selección de características para mejorar el rendimiento y la calidad del análisis. Si se utiliza demasiados atributos de predicción o de entrada al diseñar un modelo de minería de datos, el modelo puede tardar mucho tiempo en procesarse. (Microsoft, 2015)

Los requisitos para un modelo de árboles de decisión son los siguientes:

  • Una única columna de llave primaria: cada modelo debe contener una columna numérica o de texto que identifique cada registro de manera única. No están permitidas las claves compuestas. (Microsoft, 2015)
  • Una columna de predicción. Se requiere al menos una columna de predicción. Puede incluir varios atributos de predicción en un modelo y pueden ser de tipos diferentes, numérico o discreto. Sin embargo, el incremento del número de atributos de predicción puede aumentar el tiempo de procesamiento. (Microsoft, 2015)
  • Columnas de entrada: Se requieren columnas de entrada, que pueden ser discretas o continuas. Aumentar el número de atributos de entrada afecta al tiempo de procesamiento. (Microsoft, 2015)

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Microsoft. (2015). Microsoft Developer Network. Obtenido de https://msdn.microsoft.com/en-us/library/ms174949.aspx

Clasificación de Bayes

Los clasificadores bayesianos son clasificadores estadísticos, los cuales pueden predecir la probabilidad de que un grupo de datos (tupla) pertenezca a una clase particular. La clasificación de Bayes, está basada en el teorema de Bayes, en honor a Tomas Bayes, clérigo que durante el siglo 18 trabajó en probabilidad y teorías de decisión. Este teorema busca la probabilidad (P) que se cumpla una hipótesis (H) dado un set de datos conocidos o evidencia (X), esta probabilidad se denominara “probabilidad a posteriori” P(H/X). (Han, Kamber, & Pei, 2012)

Naive Bayes es un conjunto de algoritmos de clasificación basado en el teorema de Bayes. No es un único algoritmo sino una familia de algoritmos que comparten un principio común, donde cada característica a ser clasificada es independiente del valor de cualquier otra característica. Se los considera a los clasificadores de Bayes “ingenuos” ya que consideran cada una de estas “características” para contribuir de manera independiente a la probabilidad de que se cumpla la hipótesis, con independencia de las correlaciones entre las características. Las características, sin embargo, no siempre son independientes que a menudo es visto como un defecto de los algoritmos bayesiano y es por eso que está marcada como “ingenua” (naive). (Waldron, 2015)

A pesar de que son algoritmos relativamente simples, Naive Bayes a menudo puede superar a otros algoritmos más sofisticados y es extremadamente útil en aplicaciones comunes; es computacionalmente más liviano que otros algoritmos, y por lo tanto es útil para generar rápidamente modelos de minería para descubrir las relaciones entre datos de entrada y datos de predicción. Se utiliza este algoritmo para hacer la exploración inicial de los datos, y posteriormente se puede aplicar los resultados obtenidos para crear modelos de minería adicionales con otros algoritmos. Uno de los usos más comunes es la detección de spam y clasificación de documentos (Microsoft, 2015)

Ventajas:

  • Es sencillo de entender y construir
  • Es rápido y computacionalmente liviano
  • No es sensible a las características irrelevantes

Desventajas

  • Asume cada característica de entrada como independiente.

La siguiente tabla muestra un set de datos de 1000 frutas, la fruta puede ser un plátano, naranja o alguna otra fruta y se conocen 3 características de cada fruta, ya sea si es larga o no, dulce o no y amarilla o no, como se muestra en la tabla:

FrutaLargaDulceAmarillaTOTAL
Plátano400350450500
Naranja0150300300
Otros10015050200
Total5006508001000
Ejemplo de Clasificador Naive Bayes

Con los datos presentados, entonces se conoce que:

  • 50% son plátanos
  • 30% son naranjas
  • 20% otras frutas

Adicionalmente se puede decir:

  • De los 500 plátanos, 400 (80%) son largas, 350 (70%) son dulces y 450 (90%) son amarillas.
  • De las 300 naranjas, 0 (0%) son largas, 150 (50%) son dulces y 300 (100%) son amarillas.
  • De las 200 otras frutas, 100 (50%) son largas, 150 (75%) son dulces y 50 (25%) son amarillas.

Por lo tanto, con este set datos conocidos se obtiene suficiente evidencia para clasificar a qué clase pertenecería un siguiente fruto. Si se dice que la fruta a clasificar es larga, dulce y amarrilla; con estos datos conocidos se calcula la probabilidad que se plátano con aquellas características que se evalúan de manera independiente.

Al calcular las 3 probabilidades, se obtiene:

  • Probabilidad (plátano): 0.252
  • Probabilidad (naranja): 0
  • Probabilidad (otra fruta): 0.01875

Por tanto, basado en las probabilidades calculadas, se puede clasificar a la nueva fruta como un plátano. (Waldron, 2015)

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Microsoft. (2015). Microsoft Developer Network. Obtenido de https://msdn.microsoft.com/en-us/library/ms174949.aspx

Waldron, M. (4 de Junio de 2015). Aylien. Obtenido de Naive Bayes for Dummies; A Simple Explanation: http://blog.aylien.com/naive-bayes-for-dummies-a-simple-explanation/

Clasificación basada en Reglas

Las reglas son una buena manera de clasificar la información. Los clasificadores basados reglas utilizan un conjunto de reglas “Si-Entonces” para la clasificación. Una regla “Si-Entonces” es una expresión de la forma:

SI condición Entonces conclusión.

La parte del “Si” de la regla es conocida como el “antecedente” o “precondición”, la parte del “Entonces” es conocida como la consecuencia. La parte antecedente puede ser la prueba de uno o varios atributos, la consecuencia contiene la clase de predicción.

Las reglas clasificadoras pueden ser evaluadas en base a su cobertura y su exactitud, la cobertura está determinada por el número tuplas en las que regla satisface las condiciones antecedentes, y la exactitud está determinada por el número de tuplas que satisfacen el resultado. La siguiente tabla muestra un set de datos de 14 compradores, y contiene el rango de edad de cada comprador y si posee o no título universitario. 

#Rango EdadTítulo UniversitarioComprador
120-30nono
220-30nono
331-45nosi
446-60nosi
546-60sisi
646-60sino
731-45sisi
820-30nono
920-30sisi
1046-60sisi
1120-30sino
1231-45nosi
1331-45sisi
1446-60nono
Datos Ejemplo Clasificación Basada en Reglas

La regla 1:

Si, el comprador está en 20-30 años y tiene título universitario; entonces, es un comprador.

#Rango EdadTítulo UniversitarioComprador
920-30sisi
1120-30sisi
Datos Ejemplo Clasificación Basada en Reglas – Aplicada la Regla 1

Por tanto, al evaluar la regla 1, vemos que de las 14 entradas que tiene el set de datos, la regla solamente satisface las condiciones para 2, por tanto, la cobertura de dicha regla es 14.28% (2/14); y, por otro lado, se observa que la regla solamente predice el resultado exitosamente para uno de las dos entradas, por tanto, la exactitud de esta regla es del 100% (2/2). (Han, Kamber, & Pei, 2012)

Para clasificar la información puede existir más de una regla que satisfaga las condiciones, para estos casos, se puede aplicar, cualquiera de las siguientes dos opciones presentadas a continuación:

  • Clasificación por tamaño: consiste en asignar mayor peso a las reglas cuyo antecedente contenga más restricciones
  • Clasificación de reglas: consiste en asignar de antemano un peso para cada regla.

Cuando no existe ninguna regla que satisfaga las condiciones, se debe aplicar una regla por defecto, que predice el resultado en función de los datos de entrenamiento. Esta regla debe ser aplicada al final. (Han, Kamber, & Pei, 2012)

Bibliografía

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Máquinas de Soporte Vectorial

Es un método de clasificación para data lineal y no lineal, que utiliza un mapeo no lineal para transformar la data de entrenamiento en una dimensión superior; con esta, se identifica el hiperplano óptimo de separación. Con una asignación no lineal apropiada para una suficientemente alta dimensionalidad, datos de dos clases pueden siempre estar separados por un hiperplano. (Han, Kamber, & Pei, 2012)

Los algoritmos de soporte vectorial, se emplean cuando se desea clasificar nuevos objetos no visibles en dos grupos distintos en función de sus propiedades y un conjunto de ejemplos conocidos, que ya están categorizados.

Un buen ejemplo de un sistema de este tipo es la clasificación de un conjunto de nuevos documentos en grupos de sentimiento positivo o negativo, sobre la base de otros documentos que ya han sido clasificados como positivos o negativos. Del mismo modo, otro ejemplo, es la clasificación de los nuevos mensajes de correo electrónico en spam o no spam, basado en un gran corpus de documentos que ya han sido marcados como spam o no spam por los seres humanos.

Los algoritmos de soporte vectorial modelan la situación mediante la creación de un espacio de características, la cual es un espacio vectorial de dimensiones finitas, en las que cada dimensión representa una “característica” de un objeto en particular. En el contexto de spam o clasificación de documentos, cada una “característica” es la prevalencia o la importancia de una palabra en particular. (Halls, 2014)

El objetivo de las máquinas de soporte vectorial es la formación de un modelo que asigna nuevos objetos que no se ven en una categoría en particular. Esto se logra mediante la creación de una partición lineal del espacio de características en dos categorías. Sobre la base de las características de los nuevos objetos no visibles, se coloca un objeto “por encima” o “por debajo” del plano de separación, lo que lleva a una categorización. Esto hace que sea un ejemplo de un clasificador lineal no probabilístico. (Halls, 2014)

Sin embargo, gran parte del beneficio de las máquinas de soporte vectorial, proviene del hecho de que no están restringidas a ser clasificadores lineales. Utilizando una técnica conocida como el truco del núcleo que pueden llegar a ser mucho más flexible mediante la introducción de diversos tipos de límites de decisión no lineales. (Halls, 2014)

Bibliografía

Halls, M. (12 de Septiembre de 2014). QuantStart. Obtenido de Support Vector Machines: A Guide for Beginners: https://www.quantstart.com/articles/Support-Vector-Machines-A-Guide-for-Beginners

Han, J., Kamber, M., & Pei, J. (2012). Data Mining Concepts and Techniques (Tercera ed.). Waltham, Massachusetts, USA: Morgan Kaufmann.

Algoritmos Genéticos

Los algoritmos genéticos son un método para resolver problemas de optimización con restricciones y sin restricciones que se basa en la selección natural, tratan de incorporar las ideas de la evolución natural. Los algoritmos genéticos modifican repetidamente una población de soluciones individuales; en cada paso, los algoritmos genéticos seleccionan individuos al azar de la población actual para ser padres y los utiliza para producir los hijos para la próxima generación. En generaciones sucesivas, la población “evoluciona” hacia una solución óptima. Se utilizan para resolver una variedad de problemas de optimización que no son muy adecuadas para los algoritmos de optimización estándar, incluyendo problemas en los que la función objetivo es discontinua, no diferenciables, estocástica, o altamente no lineal. (The MathWorks Inc., 2016)

El proceso básico para un algoritmo genético sigue los siguientes pasos:

Población Inicial: Crear una población inicial. Esta población suele ser generada de forma aleatoria y puede ser de cualquier tamaño.

  1. Evaluación: Cada miembro de la población es luego evaluado y se calcula un nivel de ajuste para ese individuo. El nivel de ajuste se calcula basado respecto a la satisfacción de los requisitos deseados.
  2. Selección: Constantemente se desea incrementar el nivel de ajuste de la población. La selección, por tanto, ayuda a incrementar el nivel de ajuste descartando los malos diseños y manteniendo solo los mejores individuos de la población. Existen algunos métodos de selección, pero la idea fundamental es la misma, hacer que sea más probable que los individuos más aptos sean los seleccionados para la próxima generación.
  3. Cruce: Consiste en crear nuevos individuos mediante la combinación de los aspectos de los individuos seleccionados. El objetivo es que mediante la combinación de ciertos rasgos a partir de dos o más individuos se genere una descendencia con mayor nivel de ajuste, que heredarán las mejores características de cada uno de los padres de ella.
  4. Mutación: La mutación se considera un operador básico, que proporciona un pequeño elemento de aleatoriedad en los individuos de la población. Si bien se admite que el operador de cruce es el responsable de efectuar la búsqueda a lo largo del espacio de posibles soluciones, el operador de mutación es el responsable del aumento o reducción del espacio de búsqueda dentro del algoritmo genético y del fomento de la variabilidad genética de los individuos de la población.
  5. Repetición: Una vez obtenida la nueva generación, se puede empezar de nuevo desde el paso dos hasta llegar a una condición de terminación.

Terminación: cuando el algoritmo ha encontrado la selección más probable o el nivel de ajuste es el deseado, se presume que la solución que es lo suficientemente buena y cumple con un criterio de mínimos predefinidos. (Jacobson, 2012)

Aunque los algoritmos genéticos son fáciles de describir y programar, su comportamiento puede ser complicado, y varias preguntas abiertas existen acerca de cómo funcionan y para qué tipo de problemas que son los más adecuados.

La teoría tradicional de los algoritmos genéticos (formulada por primera vez en Holanda, 1975) asume que, en un nivel muy general de descripción, los algoritmos genéticos trabajan mediante el descubrimiento, enfatizando, y recombinando los buenos “individuos” de soluciones en una manera altamente paralela. La idea aquí es que las buenas soluciones tienden a estar formadas por bloques de combinaciones de valores de un alto nivel de ajuste de las cadenas en las que están presentes. (Mitchel, 1999)

Bibliografía

Agudelo, L., López-Lezama, J. M., & Muñoz, N. (11 de Febrero de 2014). Scielo – Scientific Electronic Library Online. Obtenido de Análisis de Vulnerabilidad de Sistemas de Potencia Mediante Programación Binivel: http://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0718-07642014000300013

Jacobson, L. (12 de Febrero de 2012). The Project Spot. Obtenido de Creating a genetic algorithm for beginners: http://www.theprojectspot.com/tutorial-post/creating-a-genetic-algorithm-for-beginners/3

Mitchel, M. (1999). An Introduction to Genetic Algorithms. Cambridge, Massachusetts: Massachusetts Institute of Technology.

The MathWorks Inc. (2016). The MathWorks – Documentation. Obtenido de What Is the Genetic Algorithm?: http://www.mathworks.com/help/gads/what-is-the-genetic-algorithm.html?requestedDomain=www.mathworks.com

Redes Neuronales

Las redes neuronales son un complejo algoritmo utilizado para el análisis predictivo, estas se encuentran inspiradas en la estructura del cerebro humano. Una red neuronal proporciona un modelo muy simple en comparación con el cerebro humano, pero funciona bastante bien para la analítica predictiva.

Las redes neuronales son ampliamente utilizadas para la clasificación de datos, estos algoritmos procesan data histórica y presente para estimar los valores futuros, descubriendo cualquier correlación compleja oculta en los datos, de una manera análoga a la empleada por el cerebro humano. (Bari, Chaouchi, & Jung, 2014)

Las redes neuronales se pueden utilizar para hacer predicciones en los datos de series de tiempo, tales como los pronósticos meteorológicos. Una red neural puede ser diseñada para detectar patrones en datos de entrada y producir una salida libre de ruido. (Bari, Chaouchi, & Jung, 2014)

La estructura de un algoritmo de red neuronal tiene tres capas:

  • La capa de entrada se alimenta valores de los datos pasados ​​a la siguiente capa (oculta). Los círculos negros representan nodos de la red neural.
  • La capa oculta encapsula varias funciones complejas que crean predictores; a menudo esas funciones están ocultas para el usuario. Un conjunto de nodos (círculos negros) en la capa oculta representa funciones matemáticas que modifican los datos de entrada; estas funciones son llamadas neuronas.
  • La capa de salida recoge las predicciones hechas en la capa oculta y produce el resultado final: la predicción del modelo.

Cada neurona toma un conjunto de valores de entrada; cada uno está asociado con un peso y un valor numérico conocido como sesgo. La salida de cada neurona es una función de la salida de la suma ponderada de cada entrada más el sesgo. (Bari, Chaouchi, & Jung, 2014)

La mayoría de las redes neuronales usan funciones matemáticas para activar las neuronas. Una función es una relación entre un conjunto de entradas y un conjunto de salidas, con la regla de que cada entrada corresponde a una salida. (Gershenson)

Las neuronas en una red neuronal pueden utilizar función sigmoide para que coincidan las entradas con las salidas.

El objeto de la utilización de esta función en las redes neuronales, se debe a que la mayoría de estas funciones tienen derivadas que son positivas y de fácil cálculo; son continuas, pueden servir como tipos de funciones de suavizado, y son funciones limitadas. (Bari, Chaouchi, & Jung, 2014)

Esta combinación de características, exclusivas para las funciones sigmoides, es vital para el funcionamiento de un algoritmo de red neuronal, especialmente cuando se requiere emplear el uso de cálculos con derivadas.

El peso de cada neurona es un valor numérico que se puede derivarse utilizando prácticas, algoritmos supervisados o no supervisados.

  • En el caso de los algoritmos supervisados, los pesos se derivan mediante el ingreso de los datos de entrada y salida de la data de muestra para el algoritmo hasta que los pesos están sintonizados (es decir, hay una coincidencia casi perfecta entre las entradas y salidas).
  • En el caso de los algoritmos no supervisados, la red neuronal se presenta solamente con entradas, y el algoritmo genera las salidas correspondientes. Cuando se procesa nuevamente el algoritmo con nueva data de entrada, el algoritmo produce nuevos resultados que son similares a las salidas anteriores, entonces, se presume que los pesos de las neuronas se han ajustado.

Las redes neuronales tienden a tener una alta precisión incluso si los datos tienen una cantidad significativa de ruido. Eso es una gran ventaja; cuando la capa oculta todavía puede descubrir relaciones en los datos a pesar del ruido. Por otro lado, una desventaja de los algoritmos de red neuronal es que la exactitud de la predicción puede ser válido sólo dentro del período de tiempo durante el cual se reunieron los datos de entrenamiento. (Bari, Chaouchi, & Jung, 2014)

Bibliografía

Bari, A., Chaouchi, M., & Jung, T. (2014). How Predictive Analysis Neural Networks Work. Obtenido de For Dummies: http://www.dummies.com/how-to/content/how-predictive-analysis-neural-networks-work.html

Gershenson, C. (s.f.). Artificial Neural Networks for Beginners. Obtenido de Data Science Knowledge Repo: https://datajobs.com/data-science-repo/Neural-Net-%5BCarlos-Gershenson%5D.pdf

Regresión Lineal

La regresión lineal es uno de los métodos fundamentales y más utilizados en el análisis predictivo. La regresión lineal es utilizada para describir data y explicar la relación existente entre una variable dependientes y varias variables independientes. (Statistics Solutions, 2013)

El método de regresión lineal, es considerado una variación del algoritmo de árboles de decisión, debido a que los árboles de decisión cumplen la finalidad encontrar la relación entre dos variables una dependiente y otra independiente. El objeto del modelo de regresión lineal es el ajustar los puntos de un set de datos, a una sola línea, la relación toma la forma de una ecuación para la recta que mejor represente el set de datos.  (Microsoft, 2015)

La recta que mejor se ajusta al modelo de datos, es la que contiene el valor mínimo de la sumatoria de los cuadrados de las distancias entre cada punto y la recta. Eso significa, que existe una y sola una recta que cumple esta condición.

Adicionalmente, los análisis de regresión lineal llevan asociados una serie de procedimientos de diagnóstico como los análisis de residuos y puntos de influencia, que informan sobre la estabilidad e idoneidad del análisis, permitiendo obtener datos para mejor el análisis. Una medida de ajuste que ha recibido gran aceptación en el contexto del análisis de regresión es el coeficiente de determinación R2, se trata de una medida estandarizada que toma valores entre 0 y 1, 0 cuando la relación entre las variables es nula y 1 cuando la relación entre las variables es perfecta. (Merino & Ruiz, 2016)

Bibliografía

Merino, A., & Ruiz, M. Á. (2016). Análisis de datos con SPSS 13 Base. The McGraw Hill.

Microsoft. (2015). Microsoft Developer Network. Obtenido de https://msdn.microsoft.com/en-us/library/ms174949.aspx

Statistics Solutions. (2013). What is Linear Regression? Obtenido de http://www.statisticssolutions.com/what-is-linear-regression/