miércoles, 5 de noviembre de 2014

FORO

martes, 4 de noviembre de 2014

Sistema de exposición de Ansel Adams

El sistema de zonas es una técnica de exposición y revelado fotográfico inventada por Ansel Adams y F. Archer a final de los años 30. Las zonas le proporcionan al fotógrafo un método sistemático para definir con precisión la relación entre la manera en la que ve el sujeto fotográfico y el resultado que alcanzará el trabajo. En cierta forma, el sistema de zonas juega el mismo papel que la gestión del color para los fotógrafos digitales. Permite una correlación directa entre el mundo visual y la copia fotográfica final.

Desafortunadamente, el sistema de zonas ganó tempranamente la reputación de ser excesivamente complejo, difícil de comprender y poco práctico de aplicar en situaciones reales. Dos hechos fomentaron esta idea:
Por una parte, Ansel Adams, artista brillante y principal exponente del sistema de zonas, tenía tendencia a suponer en sus alumnos y lectores un nivel de conocimiento técnico mayor del que realmente tenían en promedio.
Por otra parte, este sistema fue diseñado inicialmente para su uso en la fotografía de gran formato, en la que es posible procesar placas de película separadamente, lo que supone una aproximación ideal al método difícilmente transportable a la fotografía en pequeño formato con cámaras de carrete.

Otra idea equivocada acerca del sistema de zonas es que no tenga utilidad en la fotografía en color o en la fotografía digital. En realidad, el sistema de zonas es conceptualmente muy simple y, debido a ciertas limitaciones inherentes al material fotográfico, tanto tradicional como digital, cualquier fotógrafo que consiga una calidad consistente en sus trabajos está usando, aún sin saberlo, alguna variación del sistema de zonas.

Lo que hace necesarias las bases conceptuales del sistema de zonas es el hecho de que tanto el papel fotográfico actual como los sensores digitales son capaces de captar un rango de valores tonales muy limitado, mientras que el Rango Dinámico, que así se llama, del ojo humano se mueve entre valores de 1 a 1.000.000 desde la máxima oscuridad en la que puede ver hasta la luminosidad mayor capaz de tolerar. Los papeles fotográficos actuales se quedan en un intervalo de 1 a 512. Es interesante señalar que en los inicios de la fotografía los papeles ofrecían escalas mayores. En contrapartida, presentaban una respuesta mucho menos rápida a la luz.

Esto significa que los fotógrafos deben salvar esta limitación a través de un método que permita aproximar al máximo posible la copia final a la realidad capturada vista con nuestros ojos. El sistema de zonas busca este objetivo proporcionando al fotógrafo una manera sencilla de controlar el contraste de la película en su cámara.
Principio

Un control de contraste de este tipo es posible gracias a un concepto resumido tradicionalmente en la expresión siguiente: “Exponer para la sombras y revelar para las luces”. El tiempo de exposición tiene un efecto directo sobre las zonas más oscuras de la composición mientras que el tiempo de revelado lo tiene sobre las zonas más claras. Exponiendo correctamente la película e incrementando o reduciendo los tiempos de revelado, los fotógrafos que usen el sistema de zonas podrán, dentro de unos límites, producir negativos que resulten en copias magníficas independientemente de cómo de contrastado o plano resultara ser el sujeto fotografiado.

Muchos fotógrafos lograron comprender lo antes expuesto a través del procedimiento de ensayo y error mucho antes de que el sistema de zonas fuera formulado. La novedad de Ansel Adams y Fred Archer fue el crear la forma de que el fotógrafo pudiera traducir fácilmente el rango de tonos que podía observar en una guía visual que pudiera usarse para medir los diferentes rangos tonales del sujeto de forma práctica y predecible. Este proceso es conocido como “Previsualización” y depende de tres maneras interrelacionadas de definir algo llamado “Zona”.
Zonas, el mundo visible y la copia

Imagine todos los valores tonales que pueden verse o que pueden aparecer en una Copia fotográfica representados en una gradación continua desde el negro hasta el blanco:


Gradación tonal completa.

Desde aquí, se forman las Zonas: Dividiendo el espectro en once secciones iguales:

Gradación en once pasos

Tomando para cada sección el tono medio:
Once tonos simbólicos


Numerando cada sección en cifras romanas desde 0 para el negro hasta X para el blanco:
La escala de zonas   0 I II III IV V VI VII VIII IX X

Zonas, textura y detalle

En términos de la textura y el detalle que podemos ver en la realidad, encontramos tres tipos de zonas:

• Zonas que bien son blanco puro (Zona X) o negro absoluto (Zonas 0) y que carecen por completo de textura y detalle. Estas zonas se utilizan para visualizar y representar los puntos extremos en una fotografía. 
• Zonas que presentan una cantidad limitada de textura y detalle y que se utilizan para representar objetos muy oscuros o muy iluminados con ligera textura (Zonas I y IX). 
• Zonas con textura y detalle total (Zonas II, III, IV, V, VI, VII y VIII). La escala de zonas según textura se ha representado tradicionalmente de la siguiente manera:

ZonaDescripción

0 Negro puro
I Negro, con leve tonalidad pero sin textura
II Negro con textura; la parte más oscura de la imagen en la que se registra un leve detalle
III Gris oscuro con poca textura
IV Gris oscuro con textura: follaje oscuro, piedra oscura o sombras de paisaje
V Gris medio: piel oscura
VI Gris claro: piel caucásica; sombras sobre la nieve en paisajes soleados
VII Gris claro: piel muy clara; sombras en la nieve con iluminación lateral aguda
VIII Blanco con textura: textura de nieve
IX Blanco sin textura; nieve flagrante
X Blanco puro: luz fuentes

Midiendo zonas

Las Zonas representan cantidades de luz que se duplican en cada paso hacia el IX y se dividen hacia el 0. En este sentido, las Zonas equivalen a los demás controles de la cámara. Una variación de una Zona en un sentido o en otro equivale a un punto de diafragma (f/stop) más (hacia el 0) o menos (hacia el IX), un paso en velocidad de obturación (+ hacia el 0 y – hacia el IX) o a la variación del número ISO (+ hacia el 0 y menos hacia el IX). Para el propósito del sistema de zonas es todo lo mismo y podremos combinar estos conceptos técnicos de la cámara para “colocar” nuestro sujeto en la zona deseada como veremos a continuación.

El sistema de zonas en la exposición

Una superficie oscura bajo una iluminación intensa puede reflejar la misma cantidad de luz que una superficie clara bajo una luz débil. El ojo humano puede percibir la diferencia entre las dos pero un fotómetro las medirá como iguales. Por esta razón, los fotómetros están diseñados para situar el valor tonal medido en la Zona V. Como se comentó antes, cada zona es equivalente a un paso de apertura de diafragma o de velocidad de obturación así que, combinando estos dos factores, el sistema de zonas ofrece al fotógrafo una manera muy fiable de exponer correctamente una fotografía:
Previsualizar el área de la composición que quiere que sea una zona oscura con textura y detalle (típicamente, zona III) en la copia. La correcta exposición de la zona III es importante porque si esta área queda por debajo de esta zona, el detalle y la textura se perderá con la subexposición.
Tras esto, medir cuidadosamente la zona previsualizada como III y anotar la exposición recomendada por el fotómetro.
Recordar que la exposición dada por el fotómetro se sitúa en la zona V en lugar de la zona III que buscamos. Para corregirlo, compensaremos la exposición en dos puntos sobre la recomendación del fotómetro.

El sistema de zonas en el revelado

Cada combinación de película y revelador tiene un tiempo de revelado “normal” N recomendado que da como resultado un negativo con un contraste igual al del sujeto. En otras palabras, este tiempo de revelado dará un negativo plano en tomas de bajo contraste y, por consiguiente, excesivamente contrastado en fotografías de alto contraste. Es por este motivo que antes decíamos que la fotografía de gran formato, al permitir el tratamiento individual de las tomas, permite un mayor control. Un revelado correcto implica comprender cómo aumentar o reducir el tiempo de revelado de la película para permitir que una fotografía plana o demasiado contrastada dé una buena copia en un papel fotográfico actual. El sistema de zonas proporciona al fotógrafo una manera de medir el contraste de una fotografía en términos de la escala de zonas lo que ayuda a determinar si una película necesita más o menos revelado que el “normal” (N+ o N-) siendo N el establecido típicamente en concepto de tiempo, temperatura y disolución. Según necesitemos, la corrección del revelado será N ± n lo que nos permitirá colocar las luces en zonas inferiores (para –n) o zonas superiores (para +n). Es importante señalar que en el proceso de revelado de la película son las zonas de luces las que se ven más significativamente afectadas por esta modificación del revelado típico, quedando las sombras prácticamente inalteradas en la mayoría de los casos. Para ilustrar este punto, veamos lo siguiente. Tras haber seguido los tres puntos establecidos en el apartado anterior (la exposición), habremos colocado la zona de sombras deseada en zona III. El siguiente paso sería comprobar, de nuevo en el área de composición, la zona de luces que se quiere que sea blanca y con textura (típicamente zona VII). Bien con ayuda de un fotómetro puntual bien recordando la relación entre valores EV y zonas (visto más arriba), estudiamos en qué zona caen nuestras luces. Según la lectura, que deberemos recordar, modificaremos el tiempo de revelado:
Si las luces para las que queremos textura completa caen en zona VII, no hay que modificar revelado: revelado N.
Si caen en zonas superiores a VII, estarán sobrexpuestas con lo que tendremos que aplicar un revelado N-n, siendo ‘n’ el número de zonas que queremos hacer “bajar” las luces para obtener la textura deseada. Esto puede ser necesario por ejemplo en una situación en la que queramos salvar un fuerte contraluz (alto contraste).
Si caen en zonas inferiores a VII, estarán subexpuestas con lo que tendremos que aplicar un revelado N+n, siendo ‘n’ el número de zonas que queremos hacer “subir” las luces para obtener la textura deseada. Esto puede darse en una situación en la que queramos corregir una escena de bajo contraste.

El tiempo, temperatura y/o disolución concretos para el N±n vendrá determinado a través de ensayos sistemáticos o usando las tablas de revelado proporcionadas por ciertos libros sobre el sistema de zonas.

Extraido de Wikipedia. La enciclopedia libre.

miércoles, 29 de octubre de 2014

Herramientas de análisis de imágenes

A continuación DIEZ herramientas muy interesantes y fáciles de usar para el estudio o análisis de imágenes por quienes no tenemos grandes conocimientos de informática.
  1. FotoForensics
  2. TinEye.
  3. JPEGsnoop.
  4. Autopsy.
  5. Izitru Trusted Photos.
  6. Imageforensic.
  7. Amped FIVE.
  8. EnCase.
  9. ExifTool.
  10. Jeffrey Exif Viewer.
  11. Stegsecret.
1.- FotoForensics.

FotoForensics es un sitio web gratuito destinado a proporcionar a los investigadores en ciernes una muestra de lo que puede hacerse con los forenses de fotos digitales.
En agosto de 2007, el Dr. Neal Krawetz hizo una presentación en la conferencia de seguridad informática Negro Sombrero reuniones informativas. La presentación, titulada "Una imagen vale más ", cubrió un puñado de algoritmos de análisis de fotos nuevas. (Un video de la presentación está disponible en iTunes , busque "Krawetz". El asociado de papel blanco y diapositivas están disponibles en línea.) El uso de estos algoritmos, los investigadores pueden determinar si una imagen es real o gráficos de ordenador, si se ha modificado, y incluso la forma en que se modificó. Dr. Krawetz dio variaciones de esta presentación en diferentes conferencias entre 2007 y 2010.
Tras la comunicación de estos algoritmos, mucha gente comenzó a volver a crearlos. Análisis Nivel de error (ELA) es uno de los algoritmos más simples, y mucha gente implementado sus propias variantes. En 2010, Pete Ringwood creó el sitio web "errorlevelanalysis.com" como un servicio gratuito donde la gente podía enviar fotos y fotos de la web para el análisis. El resultado fue un éxito instantáneo.
En 2012, el Sr. Ringwood decidió retirarse del lugar, que se había introducido a millones de personas en el campo de la ciencia forense de fotos. Factor Hacker ha recreado el servicio como "fotoforensics.com", manteniendo los principios básicos que Pete Ringwood establecido: un servicio gratuito que proporciona una introducción a la medicina forense de fotos.

2.- TinEye

TinEye es un motor de búsqueda de imágenes inversa. Se puede enviar una imagen para TinEye para averiguar de dónde viene, cómo se está utilizando, si existen versiones modificadas de la imagen, o para encontrar las versiones de mayor resolución.
TinEye es el primer motor de búsqueda de imágenes en la web para utilizar la tecnología de identificación de imágenes en lugar de palabras clave, metadatos o marcas de agua. Es libre de utilizar para la búsqueda no comercial.
TinEye arrastra regularmente la web para las nuevas imágenes, y también aceptas contribuciones de colecciones completas de imágenes online. Hasta la fecha, TinEye ha indexado 8034634756 imágenes de la web para ayudar al usuario a encontrar lo que está buscando.

3.- JPEGSnoop.

Comprobar a simple vista si una fotografía digital ha sido retocada o procesada puede ser muy difícil cuando los cambios son sutiles. Para ello hay que analizar las entrañas del fichero.
JPEGsnoop es un potente analizador capaz de detectar cualquier posible modificación realizada sobre una imagen JPG o RAW. Puede incluso analizar fotogramas de vídeo.
Para ello, JPEGsnoop examina los metadatos EXIF, las huellas de compresión, los histogramas de color y otros parámetros internos. Tras examinar el fichero, JPEGsnoop muestra todos los datos que ha recogido.
Lo más interesante se halla al final del informe, en el que podrás saber si el fichero ha sido modificado por algún programa. Los resultados de JPEGsnoop son espectaculares, si bien no siempre consigue dar en el clavo.
Aunque no presente la información de manera amigable, JPEGsnoop es una herramienta única en su género, ideal para extraer una impresionante cantidad de datos a partir de cualquier fotografía digital o fotograma de vídeo.

4.- Autopsy.

Autopsy es tal vez la mejor herramienta libre que existe para el análisis de evidencia digital. Su interfaz gráfica es un browser que basado en las herramientas en línea de comandos del Sleuth Kit, permite un análisis de diversos tipos de evidencia mediante una captura de una imagen de disco.
El programa autopsy corre en diversos sistemas operativos como Linux, Unix y hasta en el sistema operativo Microsoft.

5.- Izitru.

Izitru utiliza técnicas automatizadas de análisis forense para certificar imágenes procedentes de cámaras digitales sin modificar, para que pueda compartirlas de forma más confiable.

6.- Imageforensic.

Técnicas forenses todo-en-uno: Entrega las principales técnicas de análisis forense de imágenes en una sola aplicación. Presume de privacidad: La foto y los informes subidos son privados. El informe es accesible sólo con el conocimiento de su vinculación directa. Es gratuito: Da a conocer la aplicación gratuita a todos, sin anuncios. Ocultación: Mantiene los datos del análisis estrictamente en privado. Sin intercambio de datos, no se comparte el análisis.

7.- Amped Five.

Amped desarrolla software para el análisis y mejora de imágenes y vídeo para aplicaciones forenses, de seguridad y de investigación. Aspira a ser el software forense de análisis de imagen más importante del mundo.

8.- Encase.

EnCase® Forensic produce una duplicación binaria exacta del dispositivo o medio original y luego la verifica generando valores hash MD5 de las imágenes y asignando valores de CRC a los datos. Estas verificaciones revelan cuándo la evidencia ha sido alterada o manipulada indebidamente, ayudando a mantener toda la evidencia digital con validez a efectos legales para su uso en procedimientos judiciales.

9.- ExifTools.

ExifTool edita los metadatos de múltiples tipos de archivos para modificarlos, ordenarlos, completar la información, etc.
ExifTool funciona mediante línea de comandos, por eso es necesario consultar con qué comando se hace cada función. Los archivos se pueden arrastrar y soltar directamente en la ventana de la consola.
ExifTool es compatible con muchos formatos de metadatos como EXIF, GPS, IPTC, XMP, JFIF, GeoTIFF, ICC Profile, Photoshop IRB, FlashPix, AFCP and ID3, también con las notcas de cámaras digitales como Canon, Casio, FujiFilm, HP, JVC/Victor, Kodak, Leaf, Minolta, Konica, Nikon, Olympus/Epson, Panasonic/Leica, Pentax/Asahi, Ricoh, Sanyo, Sigma/Foveon y Sony.

10.-Jeffrey’s Exif Viewer

Jeffrey’s Exif Viewer es una aplicación web que nos permite ver los datos Exif de una imagen. Nos muestra desde los datos básicos, hasta los más avanzados como Geolocalización, longitud focal, tiempo de exposición y otros datos más.
Podemos indicarle la URL de la imagen o directamente indicarle el path de la fotografía en nuestro sistema. Una vez que la lee, automáticamente genera el reporte que primero incluye información básica, como pueden ver en la imagen del inicio y luego toda la información completa.

11.- Stegsecret

Stegsecret es un proyecto de código abierto steganalysis (GNU / GPL) que hace posible la detección de información oculta en diferentes medios digitales. StegSecret es una herramienta steganalysis multiplataforma basada en Java que permite la detección de información oculta mediante el uso de los métodos más conocidos esteganográficos. Detecta EOF, LSB, DCT y otras técnicas.
El objetivo del proyecto StegSecret es recoger, poner en práctica y hacer más fácil el uso de técnicas steganalysis, especialmente en los medios digitales, como imágenes, audio y video. Este proyecto quiere advertir sobre la inseguridad de varias herramientas esteganográficos y algoritmos esteganográficos disponibles en Internet.
Hay varios métodos de análisis interesantes (por ejemplo): detección de patrón fijo de herramientas esteganográficos en los medios digitales, detección de presencia herramienta steganographic en los medios de comunicación, visual y métodos estadísticos ...
Actualmente estoy trabajando en la implementación de algoritmos que detectan información oculta para diferentes algoritmos steganographic. Por ejemplo, LSB técnica en píxeles secuenciales y / o pseudoaleatorios (chi-cuadrado, RS-ataque, etc.), diferentes herramientas de esteganografía que trabajan con archivos BMP, coeficientes DCT-JPEG, GIF paleta de colores ..., ADS (Alternate Data Stream ), interpretado idiomas (HTML, XML), etc.

Te puede interesar:

viernes, 5 de septiembre de 2014

Imágenes vectoriales

Una imagen vectorial es una imagen digital formada por objetos geométricos independientes (segmentos, polígonos, arcos, etc.), cada uno de ellos definido por distintos atributos matemáticos de forma, de posición, de color, etc. Por ejemplo un círculo de color rojo quedaría definido por la posición de su centro, su radio, el grosor de línea y su color.

Este formato de imagen es completamente distinto al formato de las imágenes de mapa de bits, también llamados imágenes matriciales, que están formados por píxeles. El interés principal de los gráficos vectoriales es poder ampliar el tamaño de una imagen a voluntad sin sufrir la pérdida de calidad que sufren los mapas de bits. De la misma forma, permiten mover, estirar y retorcer imágenes de manera relativamente sencilla. Su uso también está muy extendido en la generación de imágenes en tres dimensiones tanto dinámicas como estáticas.

Los vectores tienen la ventaja sobre los píxeles de ser escalables, es decir, se puede aumentar su tamaño conservando su calidad original. Lo que no ocurre con los gráficos a base de píxeles que presentan degradación de la calidad al aumentar el tamaño.

Resultado de ampliar una imagen formada por píxeles (Bitmap) o formada por vectores.

Otra diferencia importante entre estos dos tipos de imágenes digitales es el peso, los vectoriales por ser solamente parámetros matemáticos, suelen ser mucho menos pesados que una imagen rasterizada o de pixeles. De la misma manera los gráficos vectoriales pueden ser transformados (estirar, rotar, mover, distorsionar) de una manera más sencilla y con menos requerimientos de memoria en el equipo.

Sin embargo todos los gráficos vectoriales o vectorizados tienen que ser transformados a pixeles cuando se presentan en una pantalla o cuando se requiere su impresión.

Principales formatos de los gráficos vectoriales:

SWF Adobe flash: utilizado para gráficos y animaciones 2D para internet.

AI Adobe Ilustrator: Para gráficos e ilustración para web e impresión.

CDR Corel Draw: Utilizado generalmente para diseño y autoedición para impresos.

PDF Adobe Acrobat: Para intercambio de documentos y flujos de trabajo.

Post Script: Generalmente se utiliza en impresión e intercambio de archivos.

Es importante resaltar que las fotografías no pueden ser vectorizadas sin una pérdida considerable de calidad en la imagen; por lo que en este caso sigue siendo recomendable el uso formatos de pixeles (jpeg, png, tiff, etc.).



Puedes crear una imagen vectorial fácilmente con photoshop, siguiendo los pasos que explico a continuación:

1. Abre un documento nuevo con fondo transparente.



2. Con la herramienta pluma crea una forma determinada.





3. Si creas varias formas, sitúalas en capas diferentes cada una. En la siguiente imagen vamos a crear una segunda forma de color verde.



Con la herramienta "añadir punto de ancla", hemos dado forma redondeada a dos de los laterales.




4. Guarda el documento sin combinar las capas, con automatizar>Presentación PDF.



marca la casilla "añadir archivos abiertos y márcalo en la lista "sin título" si aún no le habías dado nombre:


En los ajustes de PDF, puedes elegir impresión de alta calidad. Finalmente, pulsa "Guardar PDF".




Para comprobar el trabajo realizado, abre el PDF con Adobe Reader y amplia la imagen varias veces y comprobarás que no hay pérdida.






viernes, 23 de mayo de 2014

Escuela Nacional de Policía

Panorámicas de la Escuela Nacional de Policía. Para visualizar en formato 360º, primero hay que descargar al disco duro cada foto panorámica y abrirla luego con el visor "FSP Viewer" que podéis descargar  AQUÍ.












jueves, 1 de mayo de 2014

El espectro electromagnético

A continuación dos videos elaborados por la NASA muy clarificadores sobre el espectro electromagnético que nos ayudarán a entender mejor las propiedades de la luz. Propiedades que debemos conocer si queremos entender muchos problemas que se nos presentan en fotografía.




miércoles, 30 de abril de 2014

Cómo editar, convertir o enviar video de alta de definición sin perder calidad

El mayor problema que solemos tener con nuestros videos en HD es se suele emplear el formato mts, que al quererlo reproducir en otro dispositivo es necesario convertirlo a alguno de los formatos tradicionales como son DVD, mp4, wmv, mpeg, avi, etc. Además, la mayoría de las cámaras no crean un solo archivo, sino multiples que luego hay que ensamblar mediante el proceso de edición. Todo ello lleva consigo una notable pérdida de calidad, con lo que el dinero invertido en nuestra cámara HD de nada ha servido. Pero existen programas que pueden paliar esto en gran medida, como Video Converter Ultimate que en unos pocos y sencillos pasos podemos añadir esos múltiples fragmentos de video, editarlos por separado, recortarlos, añadirles efectos, títulos, etc, y luego ensamblarlos en uno sólo y convertirlos en formatos diferentes.

 1. Al abrir el programa, pulsar el botón agregar para incorporar un fragmento de video o un archivo de video:


2. Buscar la ubicación del archivo y tras seleccionar, dar ABRIR.


3. El archivo de video aparecerá como muestra la pantalla siguiente.


4. Si queremos añadir otro archivo, buscar y pulsar el botón "agregar" situado en la parte superior izquierda y seguir el mismo proceso que para el archivo anterior.


5. Cada archivo puede editarse de forma separada pulsando el botón "editar" situado en su parte derecha.


Se abrirá una ventana con opciones de recortar el archivo de video, añadir efectos, títulos, etc.

Recorte de un fragmento de video


añadido de efectos
6. Seguidamente, podemos optar por elegir el formato de salida de nuestro video definitivo:


Selección de formato de salida
7. Finalmente, en la parte inferior derecha activaremos la casilla para fundir en un solo archivo y presionamos "Convertir". El proceso de renderizado puede tomar cierto tiempo dependiendo del tamaño del archivo y de las características de nuestro ordenador, tales como memoria RAM o velocidad del procesador.


El programa permite también:
  • Abrir y grabar archivos ISO.
  • Crear directamente un DVD.
  • Descargar videos de internet, con sólo introducir la URL.
  • Transferior videos a tus dispositivos móviles como smarphones, Tablets, etc.
Otras opciones : https://www.youtube.com/watch?v=gI1s0Bhj2DA

martes, 22 de abril de 2014

Ley del inverso del cuadrado

La ley de la inversa del cuadrado, ley cuadrática inversa o ley del cuadrado inverso de la distancia, se refiere a algunos fenómenos físicos cuya intensidad es inversamente proporcional al cuadrado de la distancia al centro donde se originan. En particular, se refiere a fenómenos ondulatorios (sonido y luz), y en general a campos centrales en un espacio euclídeo tridimensional, a campos eléctricos y a radiación ionizante no particulada.

File:Inverse square law.svg
Algunas personas involucradas directamente con el oficio de la iluminación para medios audiovisuales, hablan sobre la ley del inverso del cuadrado y aunque pueda parecer un asunto muy técnico, en realidad se trata de un sencillo cálculo que todo aquel que esté interesado en aprender a controlar la intensidad de la luz, puede aplicar.

Básicamente, la ley del cuadrado inverso se refiere al grado de atenuación que sufre la energía luminosa durante su trayecto de propagación. Conforme la distancia entre la fuente de irradiación y el sujeto a iluminar aumenta, la luz va perdiendo intensidad y aunque la lógica nos diría que esta disminución de potencia debiera ser directamente proporcional a la distancia interpuesta, no es así.

Una de las peculiaridades físicas de esta forma de energía, es que en su proceso de propagación se va expandiendo y conforme el área de proyección va aumentando, los mismos fotones que en su origen se concentraban en el haz luminoso, pierden densidad al separarse para ir cubriendo una superficie cada vez mayor.

Para que quede más claro este fenómeno, pensemos en las mismas condiciones de propagación con un elemento diferente como el agua. Si sometiéramos un chorro de agua al mismo patrón de expansión que observa la luz durante su trayectoria, las moléculas del líquido se irían separando para formar paulatinamente varios chorros, después se formarían gotas aisladas y finalmente, vapor para poder cubrir toda la superficie del cono en aumento.

Esta pérdida de densidad fomentada por el incremento de la distancia, hace que la disminución de la intensidad luminosa sea potencial al cuadrado, pero en valores negativos.

¿Para que nos sirve conocer esta Ley?

Imaginemos una escena cotidiana… por ejemplo queremos hacer una fotografía en una habitación donde sobre la mesa hay una vela encendida, y además esa es la única fuente de iluminación que tenemos en la habitación. En esa situación podremos decir que las personas sentadas a 2 metros de la vela recibirán 4 veces menos luz que las que estén sentadas a 1 metro de la vela. Con lo que si medimos sobre las personas que están a 1 metro de la luz, las personas que estén a 2 metros quedaran subexpuestas 2 pasos (4 veces menos luz). Y lo contrario, claro…

Ejemplo de pérdida de iluminación con el aumento de la distancia

Ejemplo de apertura de diafragma en función de la distancia a la fuente de iluminación

Un ejemplo práctico:

Por ejemplo, podemos usar la ley inversa para obtener diferentes resultados en el fondo al hacer un retrato, independientemente a qué distancia se coloque la cámara, ya que en iluminación solo hay que tener en cuenta en la medición la distancia que existe entre la fuente de luz sobre el motivo… y por lo tanto a qué distancia esta el fondo de la fuente de luz, para saber qué cantidad de luz llegara a el y que por lo tanto afectara al resultado.

Un vídeo como el siguiente también te puede ayudar: