Procesado de imágenes – iOS

Procesado de imágenes – iOS

Nuestro profesor Javier Sánchez Sierra imparte clase de iOS en Berklee College of  Music. CTO/cofundador en Flits, Luraki y Lingualia. Realizó el Post-Doctorado en Music & Technology Innovation en el  CCRMA, Universidad de Stanford, 2008-2011. Tiene más de 30 Apps publicadas en el AppStore desde 2009.

En el curso «Procesado de imágenes en iOS» podrás aprenderás a sacarle todo el partido a Core Image e implementarla en tus Apps. Nuestro profesor nos da unas pistas de todo lo que verás en el curso: 

Cada vez estamos más habituados a usar Apps en las que con un simple click podemos aplicar filtros sobre fotos que acabamos de tomar. Ya sea en Instagram, en Snapchat o en la propia App nativa de captura de imágenes de iPhone. Por este motivo, nos resultará extraño usar una App en la que pueda realizar una foto pero que no me permita aplicar algún filtro después. Ya sea un simple cambio de brillo, contraste, aplicar un filtro tipo sepia, convertirla a blanco y negro, recortarla o cualquier otra operación.

¿Qué fácil es acostumbrarse a lo bueno, no? Quizás convenga recordarte que hace 5 años esto no era nada sencillo en iOS. Cualquier procesado de imagen requería trabajar con la imagen a bajo nivel, aplicando operaciones pixel a pixel sobre la misma, y utilizando las conocidas matrices de convolución. Esta claro que esto no estaba al acceso de la mayoría de los desarrolladores y era necesario buscar alguna librería de terceros si queríamos incluir estas funcionalidades en nuestra App.

Aun recuerdo cómo en Junio de 2011, en la famosa WWDC, el encuentro anual de desarrolladores de Apple anunciaba en la sesión 422 que Core Image (el framework para procesado de imágenes) ya estaba disponible en iOS, concretamente en iOS5. Hasta entonces solo estaba disponible en OSX. Con unas simples líneas de código era posible aplicar filtros sobre las imágenes. En esa primera versión teníamos 16 filtros disponibles, la mayoría de ellos relacionados con el tratamiento del color. Por entonces, el mismo framework para OSX tenía ya 130 filtros disponibles. Han pasado 5 años desde entonces y ahora mismo esos 130 filtros ya están disponibles en iOS. Tenemos filtros de todos los sabores y para todos los gustos: distorsiones, ajustes de color, desenfoques, geométricos, concatenación de filtros, transiciones, generadores, etc. Te aseguro que será difícil encontrar un filtro en Photoshop que no sea posible aplicar a la imagen de tu App con unas simples líneas de código.

Nos lo han puesto fácil, ¿no crees? Así que ya no tienes excusa para no utilizar Core Image en tus Apps. Te aseguro que si no lo utilizas, tus usuarios no pararán de pedírtelo en sus reviews y te quedarás atrás.

Aun así, podemos entender que cómo desarrollador siempre cueste un poco ponerse al día de las últimas novedades y funcionalidades. ¡Pero han pasado ya 5 años! Así que con este curso, daremos un buen repaso a todo lo que tiene que ver con el tratamiento de imágenes en iOS.

Comenzaremos con conceptos básicos como añadir una simple imagen a tu App. Ya sea una imagen que tienes en local, o una imagen que te puedas descargar de Internet. También puedes cargar múltiples imágenes y animarlas (como un GIF animado). Yo lo uso a menudo para personalizar los iconos que aparecen al usuario mientras se ejecuta un proceso.

Te mostraremos también cómo acceder a la cámara de tu dispositivo para tomar imágenes y cómo podrás utilizarlas posteriormente. Del mismo modo, podrás acceder a tu librería de imágenes, ya sea para recuperar una imagen o para grabar una imagen en tu librería una vez que ha sido procesada.

Con el framework Core Image podrás elegir los filtros que deseas aplicar a tus imágenes, configurar los parámetros asociados a dichos filtros y ya esta. ¡Así de sencillo! Por ejemplo, si aplicas un filtro de brillo, tendrás que indicar el valor del brillo, que puede variar de 0 a 1, lo mismo que haces en Photoshop. Puedes encadenar diferentes filtros simplemente asociando la salida de un filtro con la entrada del siguiente, serán un par de líneas de código.

Aparte de los filtros, Core Image tiene una funcionalidad que te permite detectar ciertas “features” en tu imagen. Nos referimos a caras, figuras geométricas, códigos QR o texto. Con apenas media docena de línea serás capaz de detectar todas las caras de tu imagen y poder partes de las mismas: ojos, boca, sonrisas, orientación, etc.

Así que esto es todo. Anímate con el curso «Procesado de Imágenes en iOS» y verás qué sencillo es incorporar todas estas funcionalidades a tu App. Tus usuarios disfrutarán de tu App, ya lo verás.