Category Archives: big data

Home / Archive by category "big data"

Gallegos buscan soluciones para prevenir la propagación de noticias falsas

Hace unos días, María Dolores de Cospedal, Ministra de Defensa de España, anunció la creación de un grupo de trabajo entre editores de medios de comunicación y autoridades para prevenir la propagación de desinformación. Paralelamente, una startup de Galicia, ha propuesto un software que analiza redes sociales para identificar patrones asimilables a una noticia falsa.

¿Recuerdan la supuesta historia nazi detrás de los populares minions o la aplicación Rumblr, un supuesto Tinder de peleas que terminó siendo una estrategia de marketing? Las noticias falsas están a la orden del día y ciertamente puede provocar grandes malos entendidos cuando se viralizan.

El denominado efecto bola de nieve, magnificado por las redes sociales, puede contribuir no solo a la llegada de noticias derechamente sin fundamento, sino también a impresiones en los lugares, fechas o contextos en los que se desarrolla un evento. Un ejemplo icónico en Chile fue el Tiburón de Cachagua, “noticia” que se expandió rápidamente pero que terminó estando basada en una imagen de varios años antes.

Una confusión similar se generó en España, cuando hace unas semanas Carles Puigdemont publicó un video del año 2013, donde se ve al partido neonazi español AN irrumpiendo violentamente en una exposición. Al ex Presidente se le olvidó poner el año del video y rápidamente el asunto se hizo viral.

Y paralelamente, se han difundido varias noticias con falta de precisión, que impulsó a Cospedal a anunciar el grupo.

Voy a proponer a la Comisión de Defensa del @Congreso_Es la creación de un grupo de trabajo que reúna a diputados y editores de los principales medios de comunicación para estudiar a fondo la amenaza de la desinformación contra nuestra democracia #LRCospedal pic.twitter.com/HDaXdKfJhZ

— Mª Dolores Cospedal (@mdcospedal) November 30, 2017

Big data podría ser clave

El asunto va incluso más allá y hoy día existen soluciones que prometen entregar una precisión nunca antes vista mediante el uso de Big Data. Una de ellas es la startup Torusware, que mediante el análisis de grandes cantidades de datos, sobre todo en redes sociales, identifican las informaciones que pudiesen tener imprecisiones. ¿Será realmente posible?

Según explicó Guillermo López Taboada, CEO de la compañía, al periódico El Condidencial, “en cuestión de minutos ya sabían que el video publicado por Puigdemont era del 2013”. Paralelamente, dicen que han estudiado cuestiones como el tráfico de vehículos o tendencias para ayudar a disipar las imprecisiones.

El uso de esta tecnología ya es un hecho y también se aplica en sitios como Full Fact, una ONG británica que trabaja analizando los mensajes de parlamentarios y verificando titulares. En todo caso, en Chile también tenemos ejemplos del uso de Big Data para analizar patrones y entregar respuestas, siendo DataCiencia una de las empresas que trabaja con esta tecnología.

The post Gallegos buscan soluciones para prevenir la propagación de noticias falsas appeared first on FayerWayer.

Ingeniero chileno de la NASA se presentará en el seminario “Innovar y Emprender” de la Universidad del Desarrollo

Con el objetivo de mostrar las nuevas tendencias en innovación y negocios del mundo contemporáneo, la Dirección de Desarrollo Tecnológico iCono y la Aceleradora de Negocios UDD Ventures, realizarán el seminario Innovar y Emprender, que en esta versión tendrá como eje los temas “Data Science y Nuevos Negocios”.

La actividad reunirá a emprendedores de diversos rubros y abordará conceptos claves para entender las necesidades emergentes que surgen en las empresas, que implican el dominio de la tecnología y bases de datos para modificar y mejorar la orientación de los negocios dentro de organizaciones. Así lo declaró la directora de iCono UDD, Nancy Pérez:

La digitalización nos ha permitido generar una cantidad de datos e información como nunca antes, datos que no solo se generan en la vida de las personas, sino que también en los ámbitos productivos. Con el aumento significativo de dispositivos y sensores utilizados en las industrias, el desafío es transformar esos datos en información y conocimiento para mejorar sustantivamente la productividad. En ese sentido, este seminario viene a ser un aporte para que los emprendedores del país busquen, en las nuevas tecnologías y técnicas como el Data Science, generar soluciones innovadoras para las industrias

Entre los expositores del seminario se encuentra Eduardo Bendek, ingeniero y doctor en óptica que lidera el equipo de la NASA que enviará una misión espacial a Marte en 2020 para registrar por primera vez en la historia imágenes de un exoplaneta muy parecido a la tierra. Bendek se referirá a la astrofísica y el big data, concepto que involucra el conjunto de datos informáticos de gran escala. Además, expondrá la directora ejecutiva del Instituto de Data Science de la UDD, Loreto Bravo, sobre la ciencia de datos y los nuevos negocios que conlleva el uso de esta misma.

La moderación de la actividad estará cargo de la reconocida periodista científica Andrea Obaid, que dirigirá un conversatorio interactivo con el público asistente. El evento se llevará a cabo el día 9 de noviembre en las dependencias de la empresa 3M, ubica en Santa Isabel 1001, Providencia, Santiago de Chile.

The post Ingeniero chileno de la NASA se presentará en el seminario “Innovar y Emprender” de la Universidad del Desarrollo appeared first on FayerWayer.

Norm Judah, CTO de Microsoft Digital: “Necesitamos entender los principios fundamentales de la inteligencia artificial”

Con doce años en el cargo, Norman Judah -tocayo mío- sabe muy bien de lo que está hablando, y con razón: ha liderado la vanguardia de desarrollo de Microsoft en muchos frentes, desde Windows y Office, pasando por los Hololens hasta la nube, en diseño, tecnología e implementación. Por lo tanto, no es sorpresa que haya venido a Chile a exponer sobre la próxima frontera tecnológica, inteligencia artificial y las tecnologías de realidad mixta que hoy suenan más al futuro que al presente.

En el marco de su entretenida charla, tuvimos la oportunidad de conversar sobre el tópico que nos interesa: cuál es su visión del estado del arte en IA y hasta dónde podemos llegar con esta tecnología que, en muy poco tiempo, se está convirtiendo en un lugar común y no en un imposible.

FayerWayer: La inteligencia artificial ha tenido un crecimiento explosivo en los últimos 10 años. ¿A que cree que se debe?

Norm Judah: La inteligencia artificial no ocurrió la semana pasada. La investigación sobre IA ha estado ocurriendo durante 40, 50 años. Muchos casos se remiten al Media Lab del MIT, lenguajes como Prolog y Lisp, y luego todo se silenció por un tiempo. Hubo mucha actividad y financiamiento y luego silencio, pero recientemente se ha vuelto más visible. Y se ha vuelto visible sobre dos cosas: primero la riqueza del algoritmo, debido a la investigación continuada de la ciencia computacional en diseño de redes neuronales. Esa es la primera parte. Pero también tienes que tener un lugar donde ejecutarlo. Y ahí es donde aparece la nube. Entonces es la combinación de algoritmos en la nube lo que hace que la inteligencia artificial sea accesible y esté disponible para todos, para experimentar, para jugar, entender, usar y todo eso. La democratización de la IA, es decir hacerla disponible para todos, es lo que hemos visto en el último año, pero no es nuevo. Estas ideas y esta investigación ha estado por muchos años.

FW: Satya Nadella dijo recientemente que era hora de “controlar la inteligencia artificial”. En torno a la democratización de ésta, ¿está de acuerdo con esa apreciación?

NJ: Creo que hay que dar un paso hacia atrás, como lo hemos hecho, y mirar ampliamente el tópico de lo ético. Si puedes hacer eso, puedes entrar a cosas como la privacidad, por ejemplo, porque la manera en la que acumulas y usas datos de otras personas está dentro de esa infraestructura ética. Estamos elevando la conversación a no sólo privacidad y comportamiento, sino que a un nivel más alto hablando sobre sentar principios éticos. Creemos que toda compañía -porque cada compañía es una compañía de software de alguna forma- necesitará tener su propio manifiesto sobre inteligencia artificial, sobre lo que piensan de la IA, del uso de la información, y sobre el rol que los humanos cumplen cuando la IA está ahí. Creemos de hecho que los humanos tienen un rol muy activo, y que una de las dimensiones de eso es sobre el juicio. Es tratar de entender cómo funciona el motor de la inteligencia artificial, cómo se están haciendo las recomendaciones. Y hoy, muchos de los sistemas que vemos hoy son lo que yo llamo “consultivos”. En otras palabras, el sistema hace una recomendación a un ser humano para tomar acción. Pero muy pronto estos sistemas avanzarán a un bucle o a una especie de “circuito cerrado”; vemos eso con la conducción autónoma, por ejemplo. Y en ese circuito cerrado el sistema está tomando la decisión por ti, ejecutando la acción y luego volviendo y diciéndote “por cierto, ejecuté esta acción para ti”. Por eso, ya que estamos pasando por aquello, el rol de los humanos y el rol de la inteligencia artificial tiene que ser elevado a un lugar donde individuos y compañías grandes y pequeñas tendrán que asumir una posición respecto a la ética de la IA.

FW: El tema de la ética en inteligencia artificial nos recuerda mucho a la ciencia ficción de mitades del siglo XX…

NJ: La ciencia ficción escrita en los años 40 o 50 estaba increíblemente adelantada en la proyección desde donde está, por ejemplo con Isaac Asimov primero en “Yo, Robot”, pero hubo otra trilogía llamada “Fundación” -una trilogía en cuatro libros- que de hecho habla sobre Big Data. Articula muy bien el valor estadístico del Big Data y predecir el comportamiento de la gente. La única cosa a la que no le acertó es que asumió que una predicción acertada debía ser a escala intergaláctica, y sabemos hoy en día que eso no es cierto. Muchos de los proveedores de software hoy en día en un set de muestra pequeño pueden predecir comportamiento hasta mi como individuo y personalizarlo. Pero de nuevo, estas son cosas que Asimov escribió en los años 40 y 50, y creo que hoy nos estamos perdiendo algo de aquello en la literatura donde somos increíblemente articulados sobre una posible posición en el futuro. Creo que el trabajo que hizo en ese momento en términos de predecir el futuro es bastante sorprendente. El único error de Asimov es que se equivocó por 50 años, viendo lo que vemos hoy como si fuese a pasar en 50 años más, por lo tanto su predicción estaba correcta pero el timing estaba equivocado. Nos hemos movido más rápido de lo que él pensó.

FW: ¿Cree que el campo de la robótica y la inteligencia artificial es peligroso? Teniendo el ejemplo de la literatura de Asimov detrás, ¿Ha pensado en formas de controlar estos procesos?

NJ: Nosotros creemos que es el rol de los humanos en el juicio, que es la habilidad de la gente para entender cómo funcionan los algoritmos y cómo se hacen las recomendaciones. Una de las cosas que vemos hoy es que si los sistemas de inteligencia artificial no son supervisados, ni bien alimentados, o no tienen a alguien vigilándolos con ese juicio, los algoritmos pueden decaer, y pueden decaer con una preferencia lentamente establecida. Esencialmente lo que tiene que ocurrir es que la gente tiene un rol activo que cumplir. No significa que puedas dejar al sistema funcionar por si mismo: los sistemas se vuelven orgánicos, y como cada organismo, van mutando, creciendo y cambiando de forma, y alguien tiene que observar ese proceso. Hay un rol activo de la gente en eso. El estado de la industria hoy es que estamos aprendiendo. Aprendiendo de los vehículos autónomos, y de la inteligencia artificial en vehículos, y cómo navegan en el tráfico, cómo deciden en situaciones de emergencia y que hacen si, por ejemplo, un perro se cruza en el camino. Así que la noción de privacidad comienza a cambiar un poco porque si obtengo valor, es posible que sea capaz de entregar mi información y hacer que un sistema de inteligencia artificial aprenda más sobre mi, sobre mi contexto, pero debe haber valor para mi. Y cuando no hay valor, o realmente no entiendo la naturaleza de las proyecciones en mi persona, eso pone nerviosos a algunos.

FW: ¿Cuál cree que es el límite ético de la inteligencia artificial? ¿Dónde ponemos la línea?

NJ: Mientras vamos desarrollando y experimentando con las soluciones de inteligencia artificial, ya sea sobre gente o predicción, o encontrar cosas, o ayudándome a entender cosas, siempre existirá un lugar en esa secuencia de cosas donde alguien tiene que sentarse a tener un conocimiento profundo de lo que está ahí. Estamos aprendiendo sobre las posibilidades de lo que ha ocurrido hasta ahora, y a medida que vamos aprendiendo de esas posibilidades podemos comenzar a tomar acción correctiva. Las oportunidades que la IA representa para ayudar a la gente a encontrar cosas, información, a ayudarte a hacer cosas en tu trabajo o en tu ambiente social y hogareño, yo creo que veremos más y más gente adaptándose a esa tecnología casi al mismo ritmo al que nos adaptamos a la tecnología móvil. Si pensamos en la manera en que usamos lo móvil hoy comparado a lo que hacíamos hace diez, quince o veinte años atrás, pues se cambió la forma en que la gente habla, se comunica, colabora y encuentra cosas. Y creo que la IA cambiará eso, la IA te ayudará a encontrar información y hacer cosas. Pero todos tienen que tener una colección de principios alrededor de la Inteligencia Artificial, ya sea una compañía, o un individuo, o un gobierno, o educación. Necesitamos entender los principios fundamentales de la inteligencia artificial.

FW: ¿Deberíamos enseñar esos principios en escuela primaria, por ejemplo?

NJ: Creo que todavía es muy temprano para tratar de entender este tipo de principios fundamentales éticos, o axiomas si se prefiere, cómo hacerlos. Mientras los vayamos desarrollando, creo que habrá un punto en el futuro donde en varios grados educacionales será importante cómo se manipulan los datos y la consecuencia de aquello. Hoy en día muchas personas realizan búsquedas en internet, ven un hipervínculo y le hacen clic, ¿Realmente quieres ir a ese sitio? ¿Entiendes lo que estás haciendo? ¿Crees que la fuente es confiable? Y creo que esto está en la misma categoría, que es que mucha gente cree lo que ve en internet porque está ahí, sin realmente hacer un juicio sobre lo que es.

The post Norm Judah, CTO de Microsoft Digital: “Necesitamos entender los principios fundamentales de la inteligencia artificial” appeared first on FayerWayer.

Científicos chilenos presentan AstroCV, un software que podría revolucionar la astronomía

Tras un año y medio de desarrollo, científicos de la empresa Metric Arts, con apoyo del Instituto de Astrofísica de la Universidad Católica y Microsoft, presentaron AstroCV, un software de código abierto para el procesamiento de imágenes de gran tamaño. La innovación podría ser fundamental para identificar patrones de comportamiento de las galaxias en la era del denominado big data y aprendizaje automatizado.

El software fue presentado hoy en la en la conferencia de Software y Sistemas de Análisis de Datos Astronómicos (ADASS), organizada de forma inédita en Chile y Latinoamérica. El evento es uno de los seminarios más relevantes en el mundo de la astronomía y durante esta semana ha contado con la presencia de más de 350 expertos internacionales en hotel Shetaron de Santiago.

Los científicos presentaron el proyecto en una conferencia titulada “AstroCV, A computer vision library for Astronomy”. Según expresaron, la idea surgió en base a un trabajo colaborativo entre el Instituto de Astrofísica UC y Metric Arts hace dos años, apoyados por un Contrato Tecnológico de Corfo, con el cual se sentaron las bases para el desarrollo. Con el tiempo, también recibieron apoyo de Microsoft utilizando la plataforma Azure.

Roberto Muñoz, Astrónomo, científico de datos e investigador de Metric Arts, nos comentó la relevancia del software, mencionando que en astronomía se acostumbra a trabajar con muchos datos, a tomar imágenes del cielo, de las estrellas o galaxias, usando los telescopios. Estas imágenes a veces son muy grandes, llegando a pesar hasta un 1GB por unidad; solo en Chile, los telescopios toman entre 100 a 200 fotos por noche, generando una cantidad de datos considerable (big data).

Históricamente, la solución que ha tenido el mundo tecnológico para trabajar con big data ha sido hacerlo en base a múltiples computadores de manera distribuida. En vez de procesar en un único CPU, se hace en una red. Este enfoque es el que domina en las grandes compañías. El enfoque que tiene el proyecto es que, en vez de trabajar con clústers, se recurre también a las tarjetas gráficas o GPUs, ideales para manejar imágenes

Pero haber encontrado una forma eficiente de procesar las imágenes es solo una parte de la historia. Sin un software eficiente, no se podrían obtener resultados. En ese marco, surge el desarrollo de las librerías, código e interfaz de AstroCV. La empresa Metric Arts venía trabajando analizando imágenes y videos con temáticas terrestres (objetos, personas, animales), aunque se dieron cuenta que esto podía ser útil para la astronomía.

¿De qué forma funciona?

El programa se vincula con una cámara o un telescopio y procesa cada imagen que llega a una alta velocidad, oscilando en 30 cuadros por segundo. En este poco tiempo, el software detecta lo que refleja la imagen y, en tiempo real, busca patrones identificables. Aunque el objetivo principal es procesar las imágenes que se capturan, también existe la particularidad de ingresar fotografías ya extraídas en tiempos pasados, a modo de conseguir una implementación que pueda adaptarse a las dinámicas existentes y mejorarlas.

Para Roberto González, astrónomo, desarrollador del software y también parte de Metric Arts, trabajar con código abierto ha sido fundamental para potenciar la calidad del software, programado en el lenguaje C y con partes en python. Según nos cuenta, utilizar un lenguaje de bajo nivel tiene la particularidad de ser más eficiente, por interactuar directamente con el hardware. Otro de los elementos claves dentro del desarrollo fue el denominado aprendizaje automatizado (machine learning) y aprendizaje profundo (deep learning).

El aprendizaje de máquinas, junto al aprendizaje profundo (el paso más allá del machine learning), es fundamental. Desde los últimos 20 años comenzaron a emerger softwares para procesar las imágenes. La gran cantidad de información obtenida, también empezó a ser más compleja, y actualmente se necesitan muchos filtros. Por eso, hay que usar métodos automáticos y uno entrena sistemas para que hagan el trabajo. El dato es la base, pero un dato sin análisis no vale mucho.

Patricio Cofré, CEO de Metric Arts, comentó que utilizaron una plataforma de Microsoft llamada Azure, “un conjunto integral de servicios en la nube que los desarrolladores y los profesionales de TI utilizan para crear, implementar y administrar aplicaciones”. Uno de los elementos claves que Cofré destaca del funcionamiento de AstroCV, es su capacidad de tracking o seguimiento.

El tracking tiene relación con la conservación de las identificaciones que hace el software. Esto es muy aplicable en las galaxias, porque si se tiene un hallazgo, se tiene que seguir en el tiempo para que sea consistente. El tracking, la identificación y seguimiento, son los dos pilares del software. Se utilizan plataformas de código abierto para esto y en Azure se puede conseguir.

La puerta de entrada para futuros descubrimientos

Actualmente los científicos están analizando la colaboración con telescopios en vías de construcción, como el Large Synoptic Survey Telescope, o Gran Telescopio para Rastreos o Sondeos Sinópticos, que tendrá unos ocho metros de diámetro y que generará un rango de 15 TB de datos por noche; la idea es incorporar el código como parte de su desarrollo.

Para Roberto Muñoz, innovaciones de este tipo son claves para los futuros descubrimientos astronómicos:

En la astronomía se construyen telescopios más grandes y sofisticados. Hace 30 años creíamos que teníamos una imagen clara del universo, luego construimos un telescopio más grande y nos dimos cuenta que no era tan así, que había objetos que antes no podíamos ver. Hoy día sabemos que hay galaxias espirales, elípticas, estrellas de neutrones, quásares, pero nadie te dice que con los próximos telescopios no vayamos a descubrir otras. El universos es un gran espacio por descubrir.

Por su parte Wilson Pais, director de tecnología de Microsoft Chile, es otro de los esperanzados en que este proyecto sirva para el desarrollo de la ciencia.

Es muy difícil procesar la información astronómica y esto ha generado mucho interés en la comunidad científica y astronómica, además de los fines educativos que tiene. Desde centros que trabajan con lo que se denomina ‘data visualización’, podría ser muy útil.

Este tipo de tecnologías, de realidad aumentada, virtual o mixta, aportan mucho para resolver las problemáticas que tienen (…) A Microsoft le gusta trabajar con partners. Mucha de esta información es libre, tanto los mapas como el código y la plataforma utilizada.

The post Científicos chilenos presentan AstroCV, un software que podría revolucionar la astronomía appeared first on FayerWayer.

Concurso pregunta a estudiantes: ¿Qué les gustaría predecir con Big Data?

Durante la semana pasada se desarrolló en la Escuela de Ingeniería Civil Industrial de la Universidad de Valparaíso el Seminario de Industrias 4.0, para abordar los desafíos de la industria moderna. En la ocasión, se hizo un particular concurso a propósito del auge de la ciencia de datos y su rol en la predicción estadística de eventos.

El concurso estuvo a cargo de los científicos de Data Ciencia, organización dedicada al estudio y aplicación de técnicas avanzadas de analítica predictiva, mediante el llamado Big Data, o el manejo de grandes volúmenes de información. Esta ciencia, involucra el manejo de datos estructurados, semiestructurados o carentes de forma, para poder analizarlos, mediante modelos específicos y obtener información. Pensemos que sólo Facebook genera cerca de 500 terabytes de datos por día, cuestión que se acrecenta aún más, por ejemplo, con el auge del Internet de las cosas.

Los comentarios no se hicieron esperar, y fueron recogidos en el fanpage de la entidad; desde eventos naturales, hasta romances inconclusos, los asistentes relataron sus principales inquietudes. Estas fueron algunas de las respuestas:

Finalmente, el comentario ganador fue el de Felipe Tobar, por una pregunta concreta y enmarcada en la temática del Seminario de Industrias 4.0: “¿Cuánto tardará cada país en entrar a la Industria 4.0?”. Felipe recibió el eBook: “Big Data: using smart big data analytics and metrics to make better decisions and improve performance” de Bernard Marr.

¿Han pensado en algo que les gustaría predecir?

 

The post Concurso pregunta a estudiantes: ¿Qué les gustaría predecir con Big Data? appeared first on FayerWayer.

About Guardian

All the Lorem Ipsum generators on the Internet tend to repeat predefined an chunks as necessary, making this the first true generator on the Internet. All the Lorem Ipsum generators on the Internet tend to repeat predefined Lorem Ipsum as their default model text, and a search for web sites.