Big data vs data science: qué son y cuáles son sus diferencias

Sin embargo, se acepta que se trata del “estudio científico de la creación, validación y transformación de datos para crear significado”, es decir, la ciencia que permite extraer valor y conocimiento de los datos. Por tanto, los Big Data están intrínsicamente relacionados con la “ciencia de datos” debido a que son su materia prima17,18. La variedad es otra característica de los datos ma sivos, lo cual hace referencia a las diferentes fuentes y tipos de datos que lo conforman.

Las Naciones Unidas ya ha considerado los macrodatos para contribuir al desarrollo sostenible a través de su proyecto «Construyendo nuestro futuro juntos», en el cual contempla el uso de los macrodatos para el desarrollo sostenible. Sarfaty explica que los esfuerzos del derecho internacional de los derechos humanos se han centrado en el cumplimiento de los tratados más que en la prevención de la vulneración estos derechos (2018, p. 76). Sin haber tomado plena conciencia del uso de las tecnologías, los individuos comenzamos a modificar nuestra manera de ver noticias, hacer compras e incluso comunicarnos. Se han «modificado nuestros hábitos y costumbres de ocio y laborales o profesionales, como consumidores, en nuestras relaciones como ciudadanos con las diferentes administraciones y en las relaciones con otras personas» (Garriga, 2016, p. 20). En el uso de estas nuevas herramientas se nos requirió compartir información sobre nosotros mismos, crear perfiles, tener contraseñas, hacer uso de aplicaciones so pena de quedar excluidos de ciertos grupos de no hacerlo. Así se dio el comienzo de una sociedad hiperconectada que genera datos a cada segundo, generando la materia prima de los análisis de grandes volúmenes de datos que utilizan desde el reconocimiento facial, la geolocalización y los estados de ánimo hasta el historial de sitos frecuentados, los gustos gastronómicos y el nivel de gastos, entre muchos otros indicadores.

Revista de Bioética y Derecho

El objetivo es generar una red de conocimiento interligado y
semánticamente enriquecido, reuniendo las aplicaciones de la web social y los
lenguajes y formatos de representación del conocimiento de la web semántica. Con
este fin, López Borrull y Canals (2013)
contextualizan estos lenguajes y formas cognoscitivas en la extraordinaria
importancia que entraña para las ciencias experimentales la colaboración en la
recogida de datos, probablemente más que para su análisis documental y su difusión
que implica, respectivamente, el tratamiento de datos y la explotación de
resultados. Basado en estas características, en un estudio de bases de datos estructuradas y no estructuradas, se buscan correlaciones recurrentes por medio del cruce de información hasta llegar a una solución plausible, que por lo general permite anticiparse a un evento, como caso particular la COVID-19. Es decir, puede perfilarse en diversos contextos como la diseminación del virus en una determinada zona bajo parámetros climatológicos, factores de densidad demográfica, patrones de movilidad, características fenotípicas del virus con respeto a sus otras familias y medioambiente, detección de anomalías a nivel celular y/o molecular, entre muchos otros aspectos. Para este tipo de desarrollo, el Big Data se vale de la IA a través de diversos algoritmos aplicados bien en el aprendizaje profundo como en el aprendizaje automático mencionados anteriormente.

Por otro lado, en el aprendizaje no supervisado, el algoritmo del equipo no posee la respuesta correc ta, por lo que debe generar los perfiles o predicciones solo con la información histórica que se le entrega. Por ejemplo, se le podría solicitar identificar a grupos de pacientes con ciertas caracteristicas clínicas y luego, si esta clasificación tiene algún sentido clínico, se podría utilizar para tomar decisiones, por ejemplo, sobre el beneficio de algún determinado tratamiento que algún grupo podría tener22. El otro aspecto que define a los Big Data es la ve locidad, lo cual hace alusión al ritmo en que los datos se producen, pero también a la capacidad de respuesta en el análisis como para hacer de la información un producto que dé soluciones innovadoras y eficientes9.

revistas académicas esenciales del mundo del Big Data

Lo relevante de esta técnica de análisis es que para poder utilizar este cúmulo de datos es necesario que un programador experto elabore algoritmos que permitan su interpretación, ya que «los datos no pueden hablar por sí mismos» (Frith, 2017, p. 173). Además, no importa qué tan grande sea el volumen de los datos que se va a analizar o que tan sofisticado sea el algoritmo para realizar ese análisis, los resultados aún necesitan de los seres humanos para ser interpretados (2017, p. 174). Un hecho significante que señalan Paterson y Maeve es que los programas de inteligencia artificial «aprenden de los datos para poder reconocer inteligentemente nuevos https://www.adiario.mx/tecnologia/el-bootcamp-de-tripleten-unico-por-su-metodo-de-ensenanza-y-plan-de-carrera/ datos y adaptarlos de conformidad a lo aprendido» (2018, p. 3). Los algoritmos que se usan para hacer este análisis de big data generalmente no son transparentes y crean lo que Paterson y Maeve han descrito como el efecto black box. Es aquí, justamente, donde las técnicas de aprendizaje autónomo e inteligencia artificial que permiten que las máquinas logren decidir con base a un código de programación puede representar un riesgo para los derechos humanos (Ureña, 2019, p. 104), pues este tipo de información, puesta en manos de dictadores o potenciales terroristas, puede representar un gran riesgo para las sociedades (Alfaro et al., 2012, p. 111).

  • Sin embargo, se debe considerar que no solo el derecho a la privacidad se pone en riesgo, sino que existen otros derechos humanos que pueden ser vulnerados al hacer un mal uso de estas tecnologías; por ejemplo, al generar discriminación a partir de la elaboración de listas negras que segreguen a las personas o promuevan el racismo, o al constituir un obstáculo a la libertad de expresión, por mencionar solo algunos casos.
  • De las diferencias anteriores se puede observar que el concepto data science se engloba dentro del concepto de big data.
  • Por un lado, tenemos a los Estados que tienen la capacidad para ser creadores y proveedores de tecnologías; y, por otro, a los Estados que se limitan a la importación de dichos avances tecnológicos.
  • Se exploran también las características, fortalezas, debilidades y oportunidades de algunas aplicaciones y modelos que incluyen Big Data, principalmente para el soporte al modelado de datos, análisis y minería de datos.
  • En la Corte Interamericana de Derechos Humanos, en cuya jurisprudencia abundan los casos sobre el derecho a la vida privada, como el caso de las Masacres de Ituango c.

Sobre la trasmisión del virus, Yang y Wang (2020, 2710) afirman que, en la revisión de 22 tipos de coronavirus, tanto el SARS-CoV, el MERS-CoV y coronavirus humanos endémicos pueden persistir en superficies inanimadas como metal, vidrio o plástico por hasta nueve días, proporcionando evidencias sólidas de la supervivencia ambiental del patógeno. A estas evidencias se suma la contaminación del agua por heces de personas infectadas, ampliando otra posible vía de transmisión de esta enfermedad. En cuanto a la inactivación de coronavirus por agentes desinfectantes en pruebas de suspensión se puede consultar a Kampf (2020) en la que se exponen evidencias al respecto.

Derecho  no.84 Lima ene-jun 2020

Por último, los autores exponen la necesidad de abordar desde los proyectos Big Data soluciones integradas, no con esfuerzos aislados [15]. Una de las principales preocupaciones en el uso de estas nuevas formas de análisis es la privacidad de las personas, como lo advierten Paterson y McDonagh (2018, p. 1); no obstante, hay que considerar que la privacidad no es el único derecho que se puede vulnerar con el uso de la técnica de análisis de big data y sería una equivocación no considerar otras violaciones a los derechos humanos, como lo señala Nersessian (2018, p. 848). Un buen ejemplo de esto es el uso de cuentas falsas para incidir en las opiniones y formas de pensar de las personas, la censura, la limitación de la libertad de expresión, y la segregación o promoción del racismo.

  • Como se puede observar, es una propuesta de marco de trabajo automatizado en el entorno periodístico, pero que se puede tomar como punto de partida interesante en la intersección entre web semántica y big data, también desde una perspectiva manual.
  • Mahout ofrece una suite de algoritmos para clustering, categorización, filtrado colaborativo, clasificación y programación evolutiva.
  • Los Macrodatos o Big Data, hasta ahora no tiene una definición muy precisa, pero hay cierta coinciden cia en definirlos como aquella información recopilada electrónicamente que, por su volumen, formato y di versidad, no puede ser procesada con las herramientas informáticas comunes, por lo que requiere de solucio nes computacionales de alta complejidad8,9,10,11.
  • La mínima cantidad de información que puede ser procesada por un aparato tecnológico es el bit, el cual sólo puede ser expresado en ceros o unos, mientras que un byte es un conjunto de 8 bits.
  • Costa Rica; los temas específicos relacionados a la violación a derechos humanos que se están derivando por el uso de las técnicas de big data aún no presentan pronunciamientos.
  • El objetivo de este trabajo es la descripción de lo que supone el big data para la documentación en el contexto de los medios de comunicación y del periodismo.

El aprendizaje automático es una disciplina de la IA que se vale de algoritmos que permiten la identificación de patrones, efectuar predicciones, aprender de los datos y toma de decisiones. Para el caso del COVID-19, el aprendizaje automático se emplea para el diagnóstico e identificación de población que está en mayor riesgo de contagio. También se emplea para el desarrollo más rápido de medicamentos, incluyendo el estudio de reutilización de medicamentos que han sido probados para el El bootcamp de TripleTen: único por su método de enseñanza y plan de carrera tratamiento de otras enfermedades. Para ello, se construyen gráficos de conocimiento y se realizan análisis predictivos de interacción entre fármaco y proteínas virales (Zhou, Park, Choi & Han, 2018) e interactomas virus-huésped (Yang et al., 2019), plegamiento predictivo de proteínas (Ivankov & Finkelstein, 2020), comprensión de la dinámica molecular y celular del virus, predicción y propagación de una enfermedad basado en patrones, e incluso predecir una próxima pandemia zoonótica.