iPhone vs. Android: dos enfoques diferentes para la fotografía y el aprendizaje automático

La fotografía asistida por computadora de Apple apunta al realismo

AppleInsider puede recibir una comisión de afiliado por compras realizadas a través de enlaces en nuestro sitio. Una controversia relacionada con las cámaras de los teléfonos de Samsung ha reavivado la conversación sobre la fotografía computarizada, destacando la diferencia entre esta y el enfoque de Apple en iOS. No es un gran secreto que Apple se basa en algoritmos avanzados y fotografía asistida por computadora para casi todas las funciones de la cámara de su iPhone. Sin embargo, los usuarios comienzan a preguntarse dónde trazar la línea entre estos algoritmos y algo más intrusivo como el cambio de píxeles posterior a la captura. En este artículo, examinaremos la controversia en torno a las fotos de la luna de Samsung, cómo la empresa maneja la fotografía computacional y qué significa eso para Apple y sus competidores en el futuro.

Contenidos

Fotografía asistida por computadora

La fotografía computacional no es un concepto nuevo. Se hizo necesario porque la gente quería más rendimiento de las diminutas cámaras de sus teléfonos inteligentes. La idea básica es que las computadoras pueden realizar miles de millones de operaciones en un instante, como después de presionar el botón del obturador de la cámara, reemplazando la necesidad de ediciones básicas o aplicando arreglos más avanzados. Cuanto más podamos programar la computadora después de presionar el obturador, mejor puede ser la foto. Esto comenzó con el sistema de cámara dual de Apple en el iPhone 7. Otras innovaciones fotográficas anteriores, como Live Photos, podrían considerarse fotografía computacional, pero el modo Retrato fue el punto de inflexión para Apple. Apple introdujo el modo Retrato en 2016, que utiliza datos de profundidad de las cámaras duales del iPhone 7 Plus para crear un bokeh artificial. La compañía afirmó que fue posible gracias al sistema de cámara dual y al procesador de señal de imagen avanzado que realizó 100 mil millones de operaciones por foto. No fue perfecto, por supuesto, pero fue un paso hacia el futuro de la fotografía. La tecnología de la cámara continuaría adaptándose a los factores de forma de los teléfonos inteligentes, los chips se volverían más rápidos y los sensores de imagen se volverían más potentes por pulgada cuadrada.
El modo de retrato usa fotografía asistida por computadora para separar el primer plano. En 2023, no es raro grabar videos cinemáticamente borrosos con motores de cálculo avanzados con resultados mixtos. La fotografía computacional está en todas partes, desde el motor fotónico hasta los estilos fotográficos: un algoritmo procesa cada foto tomada con el iPhone. Sí, incluso ProRAW. Todo esto fue necesario por el deseo de las personas de capturar sus vidas con el dispositivo que tenían a mano: su iPhone. Las cámaras dedicadas tienen la física de su lado con sensores grandes y lentes enormes, pero la persona promedio no quiere gastar cientos o miles de dólares en una plataforma dedicada. Entonces, la fotografía computacional ha venido a mejorar lo que pueden hacer los diminutos sensores de los teléfonos inteligentes. Los algoritmos avanzados basados ​​en grandes bases de datos informan al procesador de señales de imagen cómo capturar la imagen ideal, procesar el ruido y exponer un sujeto. Sin embargo, hay una gran diferencia entre usar fotografías computarizadas para mejorar las capacidades de la cámara y alterar una imagen basada en datos que el sensor nunca capturó.

El lanzamiento a la luna de Samsung

Para ser claros, Apple usa modelos de aprendizaje automático, o «IA, inteligencia artificial» para aquellos que usan la nueva palabra de moda mal acuñada, para la fotografía computacional. Los algoritmos brindan información para controlar la captura de múltiples imágenes para lograr los mejores resultados o crear perfiles de profundidad de campo. El procesador de imágenes analiza el tono de la piel, el cielo, las plantas, las mascotas y más para proporcionar el color y la exposición correctos, sin intercambiar píxeles. No busca objetos como la luna para proporcionar mejoras específicas basadas en información fuera del sensor de la cámara. Señalamos esto porque aquellos que debaten sobre las fotos de la luna de Samsung han usado la fotografía asistida por computadora de Apple como un ejemplo de cómo otras compañías están haciendo estos cambios fotográficos. Ese no es el caso.
El algoritmo lunar de Samsung en acción. Crédito de la foto: u/ibreakphotos en Reddit Samsung ha documentado cómo los teléfonos Samsung desde el Galaxy S10 han procesado imágenes mediante la detección y modificación de objetos. Scene Optimizer comenzó a reconocer la luna con el Galaxy S21. Como describe el documento publicado recientemente, «IA» reconoce la luna a través de los datos aprendidos, y la función del motor de mejora de detalles se aplica para hacer que la foto sea más clara con síntesis de múltiples cuadros y aprendizaje automático. Básicamente, los dispositivos de Samsung detectan una luna despejada y luego usan otras imágenes de alta resolución y datos sobre la luna para sintetizar una mejor salida. El resultado no es una imagen captada por la cámara del dispositivo, sino algo nuevo e inventado. En general, este sistema es inteligente porque la luna se ve igual en todas partes de la Tierra. Lo único que cambia es el color de la luz reflejada en su superficie y la fase de la propia luna.Realzar la luna en una foto siempre es un cálculo sencillo. Tanto los dispositivos de Samsung como los de Apple toman una exposición de múltiples fotos para cálculos avanzados. Ambos analizan múltiples imágenes capturadas en busca de la mejor parte en cada caso y las fusionan en una imagen superior. Sin embargo, Samsung agrega un paso adicional para objetos detectados como la luna, que introduce nuevos datos de otras imágenes lunares de alta resolución para corregir la luna en la imagen capturada final.
Explicación del algoritmo lunar de Samsung. Crédito: Samsung Eso no es necesariamente algo malo. Simplemente no hay nada que Samsung no haya dejado claro en su publicidad o marketing de productos que pueda causar confusión entre los clientes. El problema de este proceso, y motivo de debate, es cómo afectará al futuro de la fotografía. En resumen, la imagen final no representa lo que detectó el sensor y procesó el algoritmo. Representa una versión idealizada de lo que podría ser posible pero no lo es porque el sensor de la cámara y la lente son demasiado pequeños.

La próxima lucha por el realismo

Desde nuestro punto de vista, el realismo y la precisión eran los principios más importantes de la fotografía con iPhone. Si hay un punto medio perfecto en saturación, nitidez y exposición, Apple se ha mantenido cerca de ese punto medio durante la última década, incluso si no siempre ha sido perfectamente consistente. Reconocemos que la fotografía es increíblemente subjetiva, pero parece que la fotografía de Android, especialmente Samsung, se ha alejado del realismo. Una vez más, no es necesariamente una negativa, sino una decisión dogmática de Samsung que los clientes deben abordar. En cuanto a esta discusión, los dispositivos Samsung y Pixel se han alejado lentamente de este centro de representación ideal y realista. Compiten por más saturación, nitidez o exposición diurna por la noche. El ejemplo anterior muestra cómo el Galaxy S22 Ultra favoreció una mayor exposición y saturación, lo que resultó en una pérdida de detalles. Decisiones inocentes y obstinadas, pero el iPhone 13 Pro en este caso se va a casa con una foto más detallada que se puede editar más tarde. Esta diferencia en la forma en que se capturan las fotos se establece en los algoritmos idiosincrásicos que utiliza cada dispositivo. A medida que estos algoritmos evolucionan, las futuras decisiones de fotografía pueden conducir a decisiones más idiosincrásicas que no se pueden revertir más tarde. Por ejemplo, al cambiar la apariencia de la luna con algoritmos avanzados sin avisar al usuario, esta imagen cambia para siempre para que coincida con lo que Samsung considera ideal. Claro, si los usuarios saben que pueden desactivar la función, podrían hacerlo, pero probablemente no lo harán. Estamos entusiasmados con el futuro de la fotografía, pero como entusiastas de la fotografía, esperamos que no sea tan invisible. Al igual que el modo de retrato de Apple, Live Photos y otras técnicas de procesamiento, actívelo con interruptores obvios. También hazlo reversible. Tocar el botón del obturador en la aplicación de la cámara principal de un dispositivo debería capturar una foto representativa de lo que ve el sensor. Si el usuario quiere más, déjelo decidir si agregarlo antes o después de editar a través de los conmutadores. Por ahora, intente fotografiar el cielo nocturno solo con su iPhone y un trípode. Funciona.

por qué esto importa

Es importante enfatizar que no hay problema en reemplazar esa fea bola que brilla intensamente en el cielo con una luna real, ni hay problema en eliminar personas o basura (o basura de personas) de una foto. Sin embargo, debe ser un proceso controlable, conmutable y visible para el usuario.
La fotografía computacional es el futuro, para bien o para mal A medida que avanzan los algoritmos, veremos más imágenes idealizadas y procesadas de los teléfonos inteligentes Android. Los peores infractores quitan o reemplazan objetos sin previo aviso. Apple inevitablemente mejorará su procesamiento de imágenes y algoritmos en el dispositivo. Pero dado el enfoque de la compañía hacia la fotografía hasta la fecha, esperamos que esto satisfaga el deseo de realismo del usuario. El tribalismo en la comunidad tecnológica siempre ha provocado debate entre los usuarios. Estos incluían Mac o PC, iPhone o Android y pronto fotos reales o ideales. Esperamos que Apple continúe eligiendo el realismo y el control del usuario para las fotos en el futuro. Darle a una empresa un control idiosincrático completo sobre lo que el usuario captura con una cámara, hasta el punto de alterar las imágenes para que se ajusten a un ideal, no parece un futuro del que queramos ser parte.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.