Brasil Uso de big data em saúde no Brasil: perspectivas para um futuro próximo Uso de big data em saúde no Brasil: perspectivas para um futuro próximo

Sin embargo, cada vez se ponen en práctica más medidas para conocer el grado de influencia de los algoritmos y estas permiten una mayor transparencia en los reportes que acompañan el sistema de decisiones del análisis de los grandes cúmulos de datos (Mauracciole, 2018, p. 281). Es necesario tener en cuenta que se debe probar la utilidad de las herramientas que vigilan tanto la manera en que se procesan los datos como los resultados que estos arrojan (Datta, Sen & Zick, 2017, p. 72). Otro problema con el análisis de big data es que debido a que los datos se obtienen de distintas fuentes, no hay claridad sobre el propósito predefinido para su recolección, lo que hace que la información que se pudo haber recogido con un propósito sea utilizada de modo muy distinto al momento en que se somete al análisis con posterioridad por parte de quienes los recolectan (Günther, 2017, p. 195). El crecimiento en el volumen de datos generados por diferentes sistemas y actividades cotidianas en la sociedad ha forjado la necesidad de modificar, optimizar y generar métodos y modelos de almacenamiento y tratamiento de datos que suplan las falencias que presentan las bases de datos y los sistemas de gestión de datos tradicionales.

Este tipo de desarrollos pueden ser personalizados, pues al aplicar algoritmos de aprendizaje predictivo se minimizan los riesgos al formular tratamientos que pueden establecer si un paciente los tolera o no. Un aspecto a mencionar acerca de la IA, es que abarca diversos campos como el reconocimiento de voz, procesamiento de lenguaje natural, visión por computador, robótica avanzada, captura de conocimiento, planificación y optimización, entre otros, en la que se busca que un sistema tenga la capacidad para sentir, razonar, participar y aprender. El reconocimiento de patrones (Pattern Recognition) es una técnica que se aplica principalmente en procesos de ingeniería, computación y matemáticas que tiene como objetivo extraer información, a partir de un cúmulo de datos, que brinde la posibilidad de establecer propiedades o relaciones entre estos datos.

Derecho PUCP

Sin haber tomado plena conciencia del uso de las tecnologías, los individuos comenzamos a modificar nuestra manera de ver noticias, hacer compras e incluso comunicarnos. Se han «modificado nuestros hábitos y costumbres de ocio y laborales o profesionales, como consumidores, en nuestras relaciones como ciudadanos con las diferentes administraciones y en las relaciones con otras personas» (Garriga, 2016, p. 20). En el uso de estas nuevas herramientas se nos requirió compartir información sobre nosotros mismos, crear perfiles, tener contraseñas, hacer uso de aplicaciones so pena de quedar excluidos de ciertos grupos de no hacerlo. Así se dio el comienzo de una sociedad hiperconectada que genera datos a cada segundo, generando la materia prima de los análisis de grandes volúmenes de datos que utilizan desde el reconocimiento facial, la geolocalización y los estados de ánimo hasta el historial de sitos frecuentados, los gustos gastronómicos y el nivel de gastos, entre muchos otros indicadores. Como resultado, se encontró que la mayoría de las investigaciones bajo estos parámetros centran el análisis en las distintas normas jurídicas en materia de privacidad y protección de datos, tendientes a regular la manera en que se realiza la minería de datos. Sin embargo, se debe considerar que no solo el derecho a la privacidad se pone en riesgo, sino que existen otros derechos humanos que pueden ser vulnerados al hacer un mal uso de estas tecnologías; por ejemplo, al generar discriminación a partir de la elaboración de listas negras que segreguen a las personas o promuevan el racismo, o al constituir un obstáculo a la libertad de expresión, por mencionar solo algunos casos.

  • Por ejemplo, pueden ser archivos de texto o de datos, imágenes, videos, da tos de sistemas de posicionamiento global (GPS), de sensores digitales de equipos (médico, industriales, medidores de electricidad, etc.).
  • Por consiguiente, el emplear de manera asertiva los cinco adjetivos mencionados deben garantizar información veraz y confiable para poderlas implementar en sistemas de IA de aprendizaje profundo, aprendizaje máquina o ambos.
  • Los investigadores en materia de derechos humanos llegaron a la conclusión de que Facebook, con su caudal de noticias alimentado por algoritmos, contribuyó a difundir el discurso del odio y la incitación a la violencia (Bachelet, 2019, p. 1).
  • Incluyendo también el surgimiento de un nuevo perfil profesional, el “Data Scientist” [3], las personas capacitadas en este perfil deben saber del negocio, de las herramientas computacionales y de análisis e interpretación estadística.

Como se ha venido comentando, el tratamiento de Big Data ha exigido el desarrollo de soluciones computacionales que permitan afrontar las necesidades y retos que traen consigo los grandes volúmenes de datos, su variedad de fuentes y la velocidad con que se generan. En la actualidad se ha pasado de la transacción a la interacción, con el propósito de obtener el mejor provecho de la información que se genera minuto a minuto [2]. Por lo tanto, independientemente de la verticalidad de la industria, es probable que esta ciencia de datos juegue un papel clave en el éxito futuro https://zacatecasonline.com.mx/tendencias/86286-bootcamp-programas-tripleten de cualquier organización. En esta era digital, los términos Big Data y Data Science se han vuelto omnipresentes, pero a menudo se utilizan indistintamente, lo que puede llevar a confusión. Si bien ambas disciplinas están intrínsecamente relacionadas y comparten similitudes, representan aspectos diferentes de la gestión y el análisis de datos en el mundo moderno. Por otro lado, en el aprendizaje no supervisado, el algoritmo del equipo no posee la respuesta correc ta, por lo que debe generar los perfiles o predicciones solo con la información histórica que se le entrega.

¿Qué es Data Science?

En tercer lugar, la visualización de los datos, con la IA se puede lograr incluir la captura de capacidades de visualización de conocimiento para facilitar el análisis de datos, un enfoque es crear aplicaciones inteligentes de visualización para determinados tipos de datos. En cuarto lugar, ya que las tecnologías de almacenamiento evolucionan, es cada vez más factible proporcionar a los usuarios, casi en tiempo real, análisis de bases de datos más grandes, lo que acelera las capacidades de toma de decisiones. El análisis de big data se basa en la inteligencia artificial, la misma que es entendida como «el estudio de cómo programar computadoras que posean la facultad de hacer aquello que la mente humana puede realizar» (Escolano et al., 2003, p. IX). Por otro lado, el aprendizaje de las máquinas -o machine learning, en inglés- es definido como «la programación de computadoras para optimizar su desempeño, usando un criterio con datos previos o experiencias pasadas» (Alpaydin, 2010, p. XXXV) para obtener grandes cantidades de datos personales en la toma de decisiones que están relacionadas con los individuos.

En cáncer infantil, y al alero del proyecto Pancancer, se han analizado 961 tumores de niños, ado lescentes y adultos jóvenes que comprenden 24 tipos moleculares distintos de cáncer. En este estudio, se ha podido determinar que casi el 50% de las neoplasias pediátricas tienen un evento potencialmente farmaco lógico, lo que plantea una oportunidad para avanzar bootcamp de programación en el conocimiento a través de ensayos clínicos37. Por otra parte, la datificación y la digitalización son dos conceptos que en ocasiones se mencionan como sinónimo, pero no lo son. Tal como lo ilustra Mayer y Cukier, la datificación ocurrió mucho antes de que aparecieran las Tecnologías de Información (TI) y, por ende, es anterior a la digitalización4.

use of big data in healthcare in Brazil: perspectives for the near future

Los temas tratados en esta contribución son la pun ta de iceberg, puesto que son una ínfima parte de los desafíos y oportunidades que involucra la puesta en valor de la producción de datos en el ámbito de la sa lud. Sin embargo, da luces sobre el avance tecnológi co de tratamiento y análisis de datos a gran escala, así como también de sus aplicaciones en la pediatría. Pero es importante tener en cuenta que estos promisorios avances también conllevan situaciones de conflicto o de riesgos potenciales, algunas de las cuales se discuti rán a continuación. El horizonte de uso de la producción masiva de datos en salud es inconmensurable y, por ende, cada año se incrementa exponencialmente el número de ar tículos científicos que reportan estudios donde se usan Big Data en diferentes disciplinas relacionadas con la salud16,24. A continuación, se describirán algunas ex periencias de aplicación en pediatría de datos masivos y las estrategias de procesamiento y análisis descritas anteriormente en el acápite anterior.

articulos cientificos de big data

Las empresas privadas son las principales productoras y recolectoras de la industria Big Data, usan los grandes volúmenes de datos para mejorar la toma de decisiones, generar nuevos productos o servicios, entre otras potencialidades económicas. Estos datos capturados para ser comercializados y controlados, están expuestos en cualquier fase de procesamiento a perder confiabilidad. No obstante, las organizaciones privadas están dispuestas a sacrificar exactitud o precisión mientras se genere beneficio económico. Los documentos ubicados en el tronco, son aquellos que dan estructura a la temática o campo de estudio, hacen referencia a estudios de revisión frente a los avances, desafíos y perspectivas de Big Data y tecnologías asociadas, estos son presentados a continuación. En este caso también se optó por presentar los cinco documentos que después de la revisión por parte de los autores son considerados los más relevantes. Con el auge del Big Data se ha dado cabida también a un nuevo concepto, Data Science o Ciencia de los Datos, que se usa de forma genérica para hacer referencia a la serie de técnicas necesarias para el tratamiento y manipulación de información masiva desde un enfoque estadístico e informático.

Kommentar hinterlassen