photo-1496096265110-f83ad7f96608?ixlib=rb-1.2.1&q=85&fm=jpg&crop=entropy&cs=srgb
circled-up-right-2.png

Datos e inteligencia artificial

Extraer información a partir de los datos puede ser un desafío. Afortunadamente, ¡nos encantan los desafíos!

Podemos apoyarte con la extracción, limpieza, expansión, análisis y modelamiento de tus datos usando tu infraestructura o procesando en la nube.
Untitled.png

Hacer ciencia de datos no tiene por qué ser privativo. Trabajamos con tecnología eficiente y suficiente para el 99% de los casos

python-logo-master-v3-TM-flattened.png
512px-Pandas_logo.svg.png
Plotly-logo-01-square.png
sqlite370_banner.gif
320px-Scikit_learn_logo_small.svg.png
320px-Jupyter_logo.svg.png
scrappy.png

¿Dónde están tus datos?

➡️ En la web: podemos cosecharlos en forma automatizada

Usando herramientas de scrapping, podemos convertir datos semiestructurados, o no estructurados en conjuntos de datos susceptibles de ser analizados. ¿Cambian con frecuencia? Ningún problema: podemos refrescarlos con la periodicidad que sea necesaria.

➡️ En muchos archivos y en distintos formatos: podemos analizarlos y llevarlos a una base de datos formal

Es común que los datos vivan en muchos formatos: XML, XLS, XLSX, JSON, CSV, TSV, PSV, texto plano, etc. Sabemos "amasarlos" y vincularlos para que se retenga el máximo de datos útiles.

➡️ En una base de datos: usémoslos ahí o hagamos una base de consulta que sea rapidísima

No es necesario reinventar la rueda: si ya hay una base de datos, saquémosle provecho, hagamos que corra extraordinariamente rápido. ¿Es una base de datos usada por muchos otros sistemas? Generemos una copia que se llene en forma incremental. Hagamos un dashboard interactivo. El cielo es el límite.
Untitled.png

Creamos tu pipeline de procesamiento de datos

Datos
Untitled.png
Información
Untitled.png

Ingesta de datos

Se toman los datos desde su origen, creando agentes que puedan ir por ellos en forma autónoma y con la periodicidad necesaria.
Se vuelca todo en forma ordenada y auditable a tu depósito de datos, creando tu propio data lake.

Ética computacional

Toda línea de código es una decisión política: los modelos y sistemas creados a partir de los datos son esclavos del sesgo que los mismos datos tienen. Las decisiones tomadas sobre datos sesgados generan errores, perpetúan y/o amplifican los sesgos, generando injusticia y discriminación en el mundo real. Existen métodos para evitar los sesgos en la data y es un imperativo moral hacer uso de ellos.
Untitled.png
Untitled.png

Data cleansing

Los datos hablan. Lamentablemente, la mayoría habla muy sucio. Limpiar los datos (tanto en formato como en contexto) es una parte fundamental de cualquier proceso de análisis de datos.

Anonimización de datos

Una de las principales trabas en cualquier proceso de análisis de datos es eliminar información privada o sensible. Es posible anonimizar sin retorno para inferir comportamientos en grupos de datos. También se puede anonimizar a través de tokenización: de esta forma, el cliente tendrá en sus manos el diccionario para volver a los datos sin anonimizar.
Untitled.png
Untitled.png

Análisis exploratorio

A veces hay que bucear para encontrar las relaciones entre los datos. Tenemos nuestro batiscafo listo para explorar los datos en bruto, encontrar relaciones, patrones, agrupaciones emergentes, etc.

Adquisición estratégica de datos

Es probable que tus datos se enriquezcan con información adicional. ¿Llovía en los días de mayor venta de paraguas? ¿Qué decían los titulares en los días de mayor éxito? ¿Hubo un evento deportivo el día en que disminuyeron los accidentes de tránsito? Podemos recuperar y vincular múltiples fuentes de datos para entregar más dimensiones de análisis y modelado.
Untitled.png
Untitled.png

Implantación de modelos predictivos

Seleccionamos e iteramos sobre los parámetros que gobiernan cada modelo predictivo candidato. Hacemos pruebas permanentes para asegurar el mejor ajuste respecto de los datos existentes.