sábado, 23 de febrero de 2013

boton


                                                                                                                                                                                                       
Percepción Visual 

Según la autora Cecilia M. Alonso "La percepción visual es la interpretación o discriminación de los estímulos externos visuales relacionados con el conocimiento previo y el estado emocional del individuo". Es la capacidad de interpretar la información y el entorno de los efectos de la luz visible que llega al ojo. Dicha percepción es también conocida como la visión. Los distintos componentes fisiológicos involucrados en ésta se refieren conjuntamente como el sistema visual, y son la base de mucha investigación enpsicologíaciencia cognitivaneurociencia y biología molecular. La percepción visual es un proceso activo con el cual el cerebro puede transformar la información lumínica captada por el ojo en una recreación de la realidad externa. Así, el estímulo pertenece al mundo exterior y produce un primer efecto en la cadena del conocimiento; al igual que el frío, el calor, lo duro, lo gelatinoso, lo rojo, lo blanco es de orden cualitativo. Por otro lado, es toda energía física, mecánica, térmica, química o electromagnética que provoca la activación de un receptor sensorial. Ésta percepción pertenece al mundo individual interior, al proceso de interpretación del ser humano y al conocimiento de las cosas.
Sistema Visual
Alcmeón de Crotona fue quien realizó los primeros estudios del cerebro. Por otra lado, Herófilo de Alejandría fue quien describió por primera vez la retina. En cuanto al funcionamiento óptico del ojo, es indispensable mencionar "Handbuch der Physiologischen Optik" del berlinés Hermann von Helmholtz (1821-1894) y al sueco Allvar Gullstrand (1862-1930).
"El sistema visual es un conjunto de órganos, vías y centros nerviosos, que logran la captación, procesamiento de la información visual, lo cual lleva a alcanzar una percepción del mundo físico que nos rodea" (SIGNApuntes - Lengua de Signos - La Visión)

El sistema visual en los seres humanos permite asimilar la información del medio ambiente. El acto de ver se inicia cuando el cristalino del ojo enfoca la imagen de su entorno en una membrana sensible a la luz en la parte posterior del ojo, llamada retina. La retina es una parte del cerebro que se aísla para servir como un transductor para la transfromación de los patrones de luz en señales neuronales. El cristalino del ojo enfoca la luz sobre las células fotorreceptoras de la retina, que detectan los fotones de la luz y responden produciendo impulsos nerviosos. Estas señales son procesadas de forma jerárquica por las diferentes partes del cerebro.
Para poder ver con nitidez, el sistema visual debe contar con determinadas estructuras y procesos activos que estén en perfectas condiciones.
Estudio de la Percepción Visual
El principal problema en la percepción visual es que lo que la gente ve no es simplemente una traducción de los estímulos de retina (es decir, la imagen en la retina). Así, las personas interesadas en la percepción han luchado durante mucho tiempo para explicar lo que hace el proceso visual para crear lo que realmente se ve. Identificar la realidad por las impresiones que se producen en nuestros sentidos es una de las más firmes evidencias de la misteriosa perfección de la mente humana. La vista es lo que permite al ser humano poder identificar la forma, el color, el tamaño, la textura y demás cualidades visibles de cada uno de los elementos que nos rodean. Por otro lado, el ojo humano no puede separar más de 24 imágenes por segundo. De esta imperfección se valen la televisión y la cinematografía, que proyectan más de 30 imágenes por segundo. La sucesión rápida de imágenes nos da la impresión de movimiento. Por lo tanto, podemos decir que el ojo humano se compara con una cámara fotográfica, o sea, el cristalino reemplaza elobjetivo: el iris es el diafragma que controla la cantidad de luz que ingresa agrandándose o achicándose; el humor vítreo es la cámara oscura; la coroides constituye las paredes de esta cámara, y la retina sería el material fotosensible.
Limitando el estudio de las percepciones sólo al campo visual, diremos que es la sensación interior de conocimiento aparente que resulta de un estímulo o impresión luminosa registrada en nuestros ojos.
Hermann von Helmholtz fue quien realizó el primer estudio de la percepción visual y examinó el ojo humano y concluyó que era ópticamente pobre. Por lo tanto, la visión sólo podría ser el resultado de algún tipo de inferencias inconscientes.
Teoría de la Gestalt
La teoría de la Gestalt fue formulada a principios del siglo XX por los psicólogos alemanes W. Kohler, K. Kofika, Lewin, y Wertheimer, agrupados con el nombre de "Gestaltpsychologie" (sicología de la forma) y son quienes primero sientan una sólida teoría de la forma, en relación a la percepción visual.
Leyes de Gestalt
Las leyes de la Gestalt describen cómo la gente percibe los componentes visuales, como patrones organizados en conjuntos. Según esta teoría, existen seis factores principales que determinan cómo los elementos de los patrones son agrupados por el sistema visual, también llamadas leyes o "Principios de la gestalt": proximidad, semejanza, cierre, simetría, el destino común (es decir, el movimiento común), y la continuidad.
Percepción Visual Artificial
La teoría y las observaciones sobre la percepción visual han sido la principal fuente de inspiración de la visión por ordenador. Estructuras especiales de hardware y algoritmos de software proporcionan las máquinas con la capacidad de interpretar las imágenes procedentes de una cámara o un sensor. La Percepción Visual Artificial ha sido utilizada en la industria y ahora está entrando en los dominios de la automoción y la robótica.

 MODELOS DEL COLOR
Modelo de color RGB
RGB es un modelo de color basado en la síntesis aditiva, con el que es posible representar un color mediante la mezcla por adición de los tres colores de luz primarios. El modelo de color RGB no define por sí mismo lo que significa exactamente rojo, verde o azul, por lo que los mismos valores RGB pueden mostrar colores notablemente diferentes en diferentes dispositivos que usen este modelo de color. Aunque utilicen un mismo modelo de color, sus espacios de color pueden variar considerablemente.

 

Visión general

El modelo de color llamado RGB es el que se utiliza en todos los sistemas que forman imágenes a través de rayos luminosos, ya sea emitiéndolos o recibiéndolos.
El modelo RGB está formado por los tres componentes de colores primarios aditivos y como mínimo un componente de sincronismo. Los componentes de color son las señales rojo, verde y azul (viniendo el nombre de las iniciales de su nomenclatura inglesa Red, Green, Blue); siendo transmitidos cada uno independiente y aislado del resto.
De esta forma no hay pérdidas en el tratamiento de la imagen puesto que los colores primarios siguen existiendo como tal en su transmisión. Por el contrario, mediante este sistema hay mucha información redundante, con el consiguiente aumento del ancho de banda necesario respecto a otros métodos de transmisión. Por ejemplo, cada color lleva el valor de brillo de toda la imagen, de forma que esta información está por triplicado.
Modelo RGB. Este espacio de color es el formado por los colores primarios luz que ya se describieron con anterioridad. Es el adecuado para representar imágenes que serán mostradas en monitores de computadora o que serán impresas en impresoras de papel fotográfico.

Las imágenes RGB utilizan tres colores para reproducir en pantalla hasta 16,7 millones de colores. RGB es el modo por defecto para las imágenes de Photoshop. Los monitores de ordenador muestran siempre los colores con el modelo RGB. Esto significa que al trabajar con modos de color diferentes, como CMYK, Photoshop convierte temporalmente los datos a RGB para su visualización.

El modo RGB asigna un valor de intensidad a cada píxel que oscile entre 0 (negro) y 255 (blanco) para cada uno de los componentes RGB de una imagen en color. Por ejemplo, un color rojo brillante podría tener un valor R de 246, un valor G de 20 y un valor B de 50. El rojo más brillante que se puede conseguir es el R: 255, G: 0, B: 0. Cuando los valores de los tres componentes son idénticos, se obtiene un matiz de gris. Si el valor de todos los componentes es de 255, el resultado será blanco puro y será negro puro si todos los componentes tienen un valor 0. Este espacio de color tiene su representación en el selector de color de Photoshop.
Modo de color CMYK
El modelo CMYK se basa en la cualidad de absorber y rechazar luz de los objetos. Si un objeto es rojo esto significa que el mismo absorbe todas las componentes de la luz exceptuando la componente roja. Los colores sustractivos (CMY) y los aditivos (RGB) son colores complementarios. Cada par de colores sustractivos crea un color aditivo y viceversa.

En el modo CMYK de Photoshop, a cada píxel se le asigna un valor de porcentaje para las tintas de cuatricromía. Los colores más claros (iluminados) tienen un porcentaje pequeño de tinta, mientras que los más oscuros (sombras) tienen porcentajes mayores. Por ejemplo, un rojo brillante podría tener 2% de cyan, 93% de magenta, 90% de amarillo y 0% de negro.

En las imágenes CMYK, el blanco puro se genera si los cuatro componentes tienen valores del 0%. Se utiliza el modo CMYK en la preparación de imágenes que se van a imprimir en cualquier sistema de impresión de tintas. Aunque CMYK es un modelo de color estándar, puede variar el rango exacto de los colores representados, dependiendo de la imprenta y las condiciones de impresión.

Modelo de color CMYK

Cian, magenta, amarillo y key (negro).
Modelo sustractivo cian, magenta y amarillo.
El modelo CMYK (acrónimo de Cyan, Magenta, Yellow y Key) es un modelo de colorsustractivo que se utiliza en la impresión en colores. Es la versión moderna y más precisa del ya obsoleto modelo de color RYB, que se utiliza aún en pintura y bellas artes. Permite representar una gama de color más amplia que este último, y tiene una mejor adaptación a los medios industriales.
Este modelo se basa en la mezcla de pigmentos de los siguientes colores para crear otros más:
·         C = Cyan (Cian).
·         M = Magenta (Magenta).
·         Y = Yellow (Amarillo).
·         K = Black o Key (Negro).
La mezcla de colores CMY ideales es sustractiva (puesto que la mezcla de cían, magenta y amarillo en fondo blanco resulta en el color negro). El modelo CMYK se basa en laabsorción de la luz. El color que presenta un objeto corresponde a la parte de la luz que incide sobre éste y que no es absorbida por el objeto.
El cian es el opuesto al rojo, lo que significa que actúa como un filtro que absorbe dicho color (-R +G +B). Magenta es el opuesto al verde (+R -G +B) y amarillo el opuesto al azul(+R +G -B).

 

Espacio de color Lab

Lab es el nombre abreviado de dos espacios de color diferentes. El más conocido es CIELAB (estrictamente CIE 1976 L*a*b*) y el otro es Hunter Lab (estrictamente, Hunter L, a, b). Lab es una abreviación informal, y puede confundirse con uno u otro espacio de color. Los espacios de color están relacionados en intención y propósito, pero son diferentes.
Ambos espacios son derivados del espacio "maestro" CIE 1931 XYZ. Sin embargo, CIELAB se calcula usando raíces cúbicas, y Hunter Lab se calcula usando raíces cuadradas.1 Se recomienda utilizar CIELAB para nuevas aplicaciones, excepto donde los datos deban compararse con valores Hunter L,a,b existentes.1
El propósito de ambos espacios es producir un espacio de color que sea más "perceptivamente lineal" que otros espacios de color.Perceptivamente lineal significa que un cambio de la misma cantidad en un valor de color debe producir un cambio casi de la misma importancia visual. Lo anterior puede mejorar la reprodución de tonos cuando se almacenan colores en valores de precisión limitada. Ambos espacios Lab están relacionados con el punto-blanco de los datos XYZ desde donde fueron convertidos. Los valores Lab no definen colores absolutos a no ser que se especifique el punto-blanco. En la práctica, muchas veces se asume que el punto-blanco sigue un estándar y no se establece explícitamente (por ejemplo, todo los valores Lab ICC son relativos al iluminante D50 del estándar CIE).

Modelo de color HSV

Espacio de color HSV como una rueda de color.
El modelo HSV (del inglés Hue, Saturation, Value – Matiz, Saturación, Valor), también llamado HSB (Hue, Saturation, Brightness – Matiz, Saturación, Brillo), define un modelo de color en términos de sus componentes.

HISTORIA

El modelo HSV fue creado en 1978 por Alvy Ray Smith. Se trata de una transformación no lineal del espacio de color RGB, y se puede usar en progresiones de color. Nótese que HSV es lo mismo que HSB pero no que HSL o HSI.

USO

Cono de colores del espacio HSV
Es común que deseemos elegir un color adecuado para alguna de nuestras aplicaciones, cuando es así resulta muy útil usar la ruleta de color HSV. En ella el matiz se representa por una región circular; una región triangular separada, puede ser usada para representar la saturación y el valor del color. Normalmente, el eje horizontal del triángulo denota la saturación, mientras que el eje vertical corresponde al valor del color. De este modo, un color puede ser elegido al tomar primero el matiz de una región circular, y después seleccionar la saturación y el valor del color deseados de la región triangular.

CARACTERÍSTICAS

Constituyentes en coordenadas cilíndricas:

Matiz

Se representa como un grado de ángulo cuyos valores posibles van de 0 a 360° (aunque para algunas aplicaciones se normalizan del 0 al 100%). Cada valor corresponde a un color. Ejemplos: 0 es rojo, 60 es amarillo y 120 es verde.
De forma intuitiva se puede realizar la siguiente transformación para conocer los valores básicos RGB:
Disponemos de 360 grados dónde se dividen los 3 colores RGB, eso da un total de 120º por color, sabiendo esto podemos recordar que el 0 es rojo RGB(1, 0, 0), 120 es verde RGB(0, 1, 0) y 240 es azul RGB(0, 0, 1). Para colores mixtos se utilizan los grados intermedios, el amarillo, RGB(1, 1, 0) está entre rojo y verde, por lo tanto 60º. Se puede observar como se sigue la secuencia de sumar 60 grados y añadir un 1 o quitar el anterior:
·         0º = RGB(1, 0, 0)
·         60º = RGB(1, 1, 0)
·         120º = RGB(0, 1, 0)
·         180º = RGB(0, 1, 1)
·         240º = RGB(0, 0, 1)
·         300º = RGB(1, 0, 1)
·         360º = 0º
Esta transformación permite saber los tonos de matices de colores puros que contienen alguna cantidad (o ninguna) de los colores R, G y B. Para el color blanco se puede poner cualquier color y saturación, siempre que se establezca el valor (de luminosidad) máximo. Asimismo, para el color negro se puede poner cualquier color y saturación, siempre que se ponga un valor de 0.

Saturación

Se representa como la distancia al eje de brillo negro-blanco. Los valores posibles van del 0 al 100%. A este parámetro también se le suele llamar "pureza" por la analogía con la pureza de excitación y la pureza colorimétrica de la colorimetría. Cuanto menor sea la saturación de un color, mayor tonalidad grisácea habrá y más decolorado estará. Por eso es útil definir la insaturación como la inversa cualitativa de la saturación.

 

Modelo de color HSL

El modelo HSL (del inglés Hue, Saturation, Lightness  Matiz, Saturación, Luminosidad), que es similar a HSV o HSI (del inglés Hue,Saturation, Intensity  Matiz, Saturación, Intensidad), define un modelo de color en términos de sus componentes constituyentes. El modelo HSL se representa gráficamente como un cono doble o un doble hexágono. Los dos vértices en el modelo HSL se corresponden con el blanco y el negro, el ángulo se corresponde con el matiz, la distancia al eje con la saturación y la distancia al eje blanco-negro se corresponde a la luminancia. Como los modelos HSI y el HSV, es una deformación no lineal del espacio de colorRGB.
Saturación
Para calcular la saturación, simplemente divida el croma por el mayor croma para esa luminosidad.
Luminosidad
En este modelo, la luminosidad se define como el promedio entre el mayor y el menor componente de color RGB. Esta definición pone los colores primarios y secundarios en un plano que pasa a mitad de camino entre el blanco y el negro. El sólido de color resultante es un cono doble similar al de Ostwald.

 LOS ATRIBUTOS DEL COLOR

Los atributos o cualidades esenciales que definen el color son el tono, la saturación y la luminosidad.
TONO:
Normalmente cuando nos referimos coloquialmente al color, en el que estamos pensando realmente es en el tono. Técnicamente podríamos decir que el tono es la longitud de onda dominante del color que vemos, y más llanamente diríamos que es cada uno de los color en ‘estado puro’. El arco iris podría ser un buen referente visual para pensar con los diferentes tonos. Habitualmente se utiliza el círculo cromático para representar todos los tonos y cada uno de ellos se define por los grados de la inclinación del radio que representa. En la figura A se muestra este círculo cromático con la correspondencia de grados para cada uno de los colores primarios R, G, B y sus complementarios C, M, Y.
                               
FIGURA A
SATURACIÓN:
La saturación define la intensidad o grado de pureza de cada color. Sus valores se mueven desde su máximo, cualquier color puro, hasta su mínimo que correspondería a un tono de gris. Popularmente cuando decimos que un color es muy vivo o intenso significa que está muy saturado.
LUMINOSIDAD:
La luminosidad o brillo es la cantidad de luz emitida o reflejada por un objeto. Y en un color sería su claridad u oscuridad. Un color al 100% de saturación tendrá su máxima pureza con un 100% de luminosidad, y con una luminosidad del 0% será negro absoluto. Y por el contrario, cualquier color al 0% de saturación corresponderá a un tono concreto de gris que se convertirá blanco absoluto por un valor del 100% de luminosidad y negro absoluto por un valor de luminosidad del 0%.
Por tanto, como podemos afrontar nuestra tarea de definir un color, con el Selector de color de Photoshop, de manera rápida y eficiente? Os recomiendo el siguiente procedimiento.

FIGURA B
En la figura B vemos el Selector de color de Photoshop con los parámetros establecidos por el color frontal que por defecto es el negro. Y recuadrado en rojo vemos las variables descritas con sus iniciales en inglés: Hue (tono), Saturation (saturación) y Brightness (brillo). Para hacerlo más comprensible recomiendo empezar introduciendo los siguientes valores: H = 0 (se expresa en grados y va de 0 a 360), S = 100 (se expresa en %) y B = 100 (se expresa en % ). A la izquierda de estos valores vemos un cuadrado y un regulador vertical. Este último nos representa los valores para la variable que tenemos seleccionada en cada momento mediante los botones circulares de color azul. Pulsamos sobre el del lado de la H (tono).
Una vez entendido el Selector de color de Photoshop ya podemos empezar a definir un color en concreto. Primeramente seleccionaremos el tono, del color que queremos, desplazando el regulador vertical. Observamos que simultáneamente nos varía el valor numérico correspondiente. Y ahora sólo tenemos que seleccionar un punto sobre el cuadrado para definir al mismo tiempo los dos parámetros restantes. Cuando tenemos el tono en el regulador vertical (figura B), la saturación varía horizontalmente dentro del cuadrado y la luminosidad de forma vertical. Si nos es más cómodo podemos eludir el cuadrado y, después de haber definido el tono, hacer clic sobre el botón de saturación y ajustarla con el regulador vertical. Y seguidamente hacer lo mismo para el brillo.
En la figura C se ve la apariencia del Selector de color cuando tenemos activada la saturación en el regulador vertical ya la figura D cuando tenemos seleccionada la luminosidad. Los dos ejemplos corresponden con un ajuste del tono en 240 º (azul). En el primer caso (figura C) el tono aparece en el eje horizontal del cuadrado y la luminosidad en el eje vertical. Y cuando tenemos la luminosidad en el regulador vertical (figura D) el tono también aparece en el eje horizontal pero ahora en el eje vertical del cuadrado se nos representa la saturación.

FIGURA C

FIGURA D
En este artículo he desarrollado el modelo HSB porque quizás es el más intuitivo. Pero fíjate que también se podría utilizar el modelo RGB, Lab o CMYK. De hecho, utilicemos el que utilicemos nos muestran las coordenadas correspondientes a los otros, de tal manera que cuando tenemos el color que buscábamos nos podemos apuntar estas coordenadas, en cualquiera de estos modelos, y recuperar el color en cuestión siempre que queramos volviéndolas a introducir.Para terminar sólo citaré que si queremos estar seguros de que un color cualquiera es un tono de gris totalmente neutro, lo podemos comprobar de las siguientes maneras. En el modelo HSB sólo hay que comprobar que el valor de saturación es del 0%. Si lo queremos comprobar con el modelo RGB es necesario que los tres valores R, G, B tengan cualquier valor pero igual entre ellos, por ejemplo R: 53, G: 53, B: 53. Y finalmente, si el modelo Lab tiene valor 0 por los canales a y b, y cualquier valor por el canal L (luminancia), también podremos garantizar que el color es un tono de gris neutro.

EL PROCESO GRAFICO
El proceso gráfico esta conformado  por unos pasos o fases que se deben seguir para obtener un producto deseado. estas pautas o fases son:
1-requerimientos del cliente
2-generacion de ideas
3-diseño
4-pre-impresion
5-impresion
6-acabado
7-embalaje
 REQUERIMIENTOS DEL CLIENTE:
A este paso se le denomina también alistamiento ya que se plantean todas las pautas y pasos que se seguirán en el proyecto a realizar. El cliente da a conocer todos los ideales que tiene para su proyecto, así el diseñador tiene una idea clara y concisa sobre las preferencias del cliente. Entre los requerimientos del cliente se encuentran:
Acuerdo
Tiempo
Recursos
Color
Letra
El papel
Forma
Costo
en el requerimiento del cliente se debe tener muy claro de lo que el cliente quiere que realice el diseñador, aqui presento un ejemplo muy gracioso de lo que pasa al no captar bien el mensaje 
GENERACION DE IDEAS:
En esta fase del proceso gráfico es en la cual tanto el cliente como el diseñador  proponen las ideas generales de cómo se vera ese diseño ya pasado a limpio.
Las ideas van desde lo que se quiere dar a conocer por parte del cliente hasta  el mas mínimo detalle acerca de  lo que se quiere lograr, para realizar esto hay pasos previos como realizar una lluvia de ideas (todas las  posibles) y luego la elección y conjugación de ideas porque se puede optar una determinada cantidad de ideas  y  mezclar las ideas restantes para obtener algo mas concreto.
De este paso sigue la formulación del diseño.
en esta fase las ideas que el diseñador plantee deben hacer referencia a lo que pidio el cliente y a lo que va tratar, es bueno motivarse viendo otros diseños, o si se tiene la capacidad de plasmar rapidamente lo que el cliente necesita mucho mejor.
DISEÑO:
El diseño es la parte en que nuestro diseñador tendrá que poner en práctica todos los conocimientos que ha adquirido durante el transcurso de su carrera para poder determinar como se realizara esta nueva creación para el cliente, el diseñador deberá darle una forma a este para hacer del mismo una promoción lo suficientemente llamativa y atractiva para la sociedad a la cual se estará incitando con dicha promoción o publicación.
Esta etapa del diseño corre básicamente por parte del diseñador  que es el especialista en esta disciplina para ello se ha preparado y cuenta con su capacidad creativa para  hacer del diseño un arte y no una labor.
PREIMPRESION:
Después del diseño sigue esta etapa  que consiste en la  presentación  al cliente de su diseño lo que el encargado de la tarea pudo realizar para su proyecto (del cliente) es una sola copia del trabajo para poder determinar si este modelo se multiplica y se publica o se deberá empezar de nuevo el proceso; todo buen  diseñador crea varias opciones para que el cliente opte por la mas apta. Este es el último paso en el que participa el diseñador en el proceso gráfico.
IMPRESIÓN:
En este paso el producto es palpable, se puede ver la magnificencia y acabados de los procesos anteriores.
La impresión es un proceso para la producción de y textos e imágenes, típicamente con tinta sobre papel usando una prensa. A menudo se realiza como un proceso industrial a gran escala, y es una parte esencial de la edición de libros.
EL ACABADO:
El acabado es un proceso de fabricación empleado en la manufactura cuya finalidad es obtener una superficie con características adecuadas para la aplicación particular del producto que se está manufacturando; esto incluye mas no es limitado a la cosmética de producto. En algunos casos el proceso de acabado puede tener la finalidad adicional de lograr que el producto entre en especificaciones dimensionales.
EMBALAJE
El embalaje es el proceso de entrega del producto  al cliente para que este se encargue de distribuirlo en los lugares que el considere mas aptos para su promoción, el producto se debe entregar bien sellado, para que ningún factor externo lo deteriore. En este paso  el producto es entregado
Otras funciones del embalaje son: proteger el contenido, facilitar la manipulación, informar sobre sus condiciones de manejo, requisitos legales, composición, ingredientes, etc. y promocionar el producto por medio de grafismos. Dentro del establecimiento comercial, el embalaje puede ayudar a vender la mercancía mediante su diseño grafico y estructural.
¿Qué es una cámara fotográfica?
La cámara fotográfica no es más que una “caja” oscura en la que entra luz durante un cierto tiempo para que la imagen proyectada a través de una lente sea impresionada en un material sensible o registrada por un sensor electrónico.

¿Cómo podemos clasificar las cámaras?
1) por el soporte, que puede ser analógico o digital
2) por el formato: pudiendo ser de 35mm (36mm x 24mm), de formato medio  (6cm x 6cm) o gran formato (9cm x 9cm)
3) por el uso que vayamos a darle a la cámara, ya sea como aficionado, o bien de carácter profesional
4) por el tipo de ópticas (fijas o intercambiables)
5) por el tamaño de la cámara, el del sensor/película, o por el uso, son otras formas de clasificar las cámaras

Tipos de cámaras
Cámaras compactas
1.       son fáciles de usar, para uso aficionado (fácil manejo, todo integrado)
2.       su control y creatividad es bastante limitada
3.       no tienen visor, se encuadran por pantalla
4.       son pequeñas en tamaño y en sensor


Cámaras bridge o intermedias
1.       para uso aficionado (fácil manejo, todo integrado)
2.       permiten un mayor control de ajustes así como posibilidades creativas.
3.       Visores simbólicos, se encuadra por pantalla.
4.       el sensor es algo mayor

Cámaras réflex SLR /DSLR
1.       para uso desde aficionado hasta profesional (según gama)
2.       ofrecen un control absoluto de ajustes y posibilidades creativas
3.       visor réflex
4.       tiene ópticas intercambiables
5.       y una amplia gama de accesorios
6.       los sensores grandes lo que permite más calidad y nitidez
7.       para el uso de estas cámaras precisamos conocimientos de fotografía

Cámaras de medio formato
1.       para uso profesional
2.       los sensores son muy grandes lo que nos lleva a obtener una altísima calidad
3.       todos sus componentes y accesorios son de máxima calidad
4.       sus precios son muy altos
5.       son muy profesionales. Se usan mucho en publicidad, en fotografías de viajes, etc.



Cámara técnica o de banco óptico
1.       para uso profesional de alto nivel: correcciones y movimientos
2.       tienen placas de película de gran tamaño
3.       han caído en desuso ya que ahora se utilizan cámaras digitales y como mucho se usan adaptadores

Otras cámaras
1.       TLR (twin lens reflex)
2.       lomografía (ver http://bit.ly/9rBEpF)
3.       instantáneas (Polaroid)
4.       telemétricas (la mítica Leica)
5.       panorámicas
6.       estereoscópicas
7.       acuáticas
8.      estenopeicas (pinhole)

TLR

LOMOGRAFIA

INSTANTANEAS
TELEMETRICAS

PANORAMICA
ESTEREOSTOPICA
ACUATICA
PINHOLE
                                           
TIPOS DE LENTES

Muchas cáma­ras usan len­tes inter­cam­bia­bles. La dife­ren­cia en estos len­tes reside en la lon­gi­tud focal, que no es mas que la dis­tan­cia que existe entre el cen­tro óptico del lente y el punto donde este enfoca (el plano de foco).
La lon­gi­tud focal es lo que deter­mina cuan cerca o cuan lejos apa­re­cen los obje­tos cuando la ima­gen se pro­yecta en la pelí­cula o el sen­sor. Esto es lo que se conoce como aumento. La poten­cia de este aumento se mide en milímetros.
Ade­mas de esto, la lon­gi­tud focal deter­mina que parte de la escena es visi­ble o lo que se conoce como angulo visual.
Todos estos ele­men­tos deter­mi­nan como el obser­va­dor ve el tras­fondo y el objeto fotografiado.
Cuando un fotó­grafo habla de la velo­ci­dad de sus len­tes, sim­ple­mente se refiere a la can­ti­dad de luz que se tras­mite a tra­vés del lente hasta el sen­sor o la película.
Una aper­tura grande (f4 por ejem­plo) per­mite que entre mas luz que una aper­tura pequeña (f16). Mien­tras mas rápido es el lente mas caro es.

Exis­ten bási­ca­mente tres tipos de len­tes en la foto­gra­fía moderna.
El lente nor­mal que pro­yecta una ima­gen que se parece mucho a lo que el fotó­grafo ve con sus pro­pios ojos sin mirar a tra­vés de la cámara. Un lente entre 40 y 55mm es lo que se conoce como un lente están­dar para una cámara de 35mm o DSLR.
El tele­foto por el otro lado, per­mite que el fotó­grafo cap­ture la luz desde gran­des dis­tan­cias y que los obje­tos apa­rez­can estar mas cerca de lo que real­mente están. Los len­tes entre 70-105mm son con­si­de­ra­dos tele­fo­tos cor­tos y se les conoce a veces como los len­tes para retra­tos, puesto que son los len­tes idea­les para foto­gra­fías desde los hom­bros hacia arriba.

Un lente de 200mm es el tele­foto mas común. Los papa­raz­zis, fotó­gra­fos depor­ti­vos y los obser­va­do­res de aves uti­li­zan por lo gene­ral tele­fo­tos de alre­de­dor de 400 a 600mm.

Final­mente, los len­tes gran-angular son el lado opuesto de los tele­fo­tos y hacen que la escena apa­rezca mucho mas de lejos de lo que esta en reali­dad pero tiene como ven­taja que el campo visual es mucho mas grande. Los len­tes de menos de 35mm son con­si­de­ra­dos gran-angular. Los len­tes alre­de­dor de los 24mm se con­si­de­ran ultra-gran-angular.
Actual­mente, el mer­cado se ha abo­cado a dos tipos prin­ci­pa­les de len­tes: los len­tes de lon­gi­tud focal fija (Pri­mor­dial) y los len­tes Zoom. Estos últi­mos le per­mi­ten variar la lon­gi­tud focal (y por lo tanto el angulo visual) mien­tras que el foco per­ma­nece constante.


Los len­tes Zoom tie­nen dife­ren­tes lon­gi­tu­des foca­les, como ya diji­mos, y esta puede ser cam­biada mediante uno de los ani­llos en el lente. Ante­rior­mente todos los len­tes zoom eran tele­fo­tos por lo que muchas per­so­nas usan los tér­mi­nos para sig­ni­fi­car la misma cosa. Esto es un error, puesto que hoy en día exis­ten len­tes zoom que van desde gran-angular hasta telefoto.
Usted puede haber oído hablar de un lente macro. Estos son uti­li­za­dos para macro-fotografía o de acer­ca­miento. Estos len­tes tie­nen las mis­mas carac­te­rís­ti­cas de los len­tes nor­ma­les, pero per­mi­ten enfo­car mucho mas de cerca al sujeto. Estos len­tes tie­nen por lo gene­ral una lon­gi­tud focal de 50/55mm o 90/100/105mm. Mien­tras mayor sea la lon­gi­tud focal mas lejos podrá usted colo­carse del sujeto.
Los len­tes Ojo de Pes­cado o “Fis­heye” se pare­cen a los ojos de los peces y tie­nen un angulo visual de casi cerca de los 180 gra­dos. Las fotos que se obtie­nen con estos len­tes siem­pre mues­tran dis­tor­sión en los bor­des de la foto.

PROFUNDIDAD DE CAMPO



Ejemplo de profundidad de campo, sólo la línea central aparece enfocada, el resto en cambio no

Imagen con poca profundidad de campo


Imagen con profundidad de campo moderada
Por profundidad de campo se entiende tradicionalmente en óptica, y en fotografía en particular, la zona en la cual la imagen captada por el objetivo es nítida (es decir enfocada), de manera que en la fotografía que se realice, las personas y objetos que se encuentren dentro de esa zona aparecerán también nítidos.
Una definición más completa y exacta sobre la profundidad de campo sería : La profundidad de campo es el espacio por delante y por detrás del plano enfocado, comprendido entre el primer y el último punto apreciablemente nítido reproducidos en el mismo plano de enfoque.
Depende de cuatro factores: el tamaño del círculo de confusión (y por tanto elformato y el tamaño de la impresión, además de la distancia de observación y de la capacidad resolutiva de cada observador), la distancia focal, el número f y ladistancia de enfoque.
La profundidad de campo depende por tanto de la distancia focal. Se ha dicho anteriormente que la distancia focal no varía, por lo que la profundidad de campo tampoco, siempre y cuando de cada formato ampliemos una copia proporcional, y las veamos, tengan el tamaño que tengan, a la misma distancia.
Si en vez de observarlas de esta forma, las observamos a la distancia proporcional al tamaño de la copia, resulta que tendría más profundidad de campo la copia del formato más grande ya que la observamos más lejos también, cosa contraria a lo que se cree. Pero resulta que como para mantener la misma angulación hay que utilizar ópticas con más distancia focal y resulta que ese parámetro es de mayor influencia en la profundidad de campo, al final tiene más el formato menor, pero por poco. Esta diferencia se incrementa cuando las observamos a la misma distancia, ya que de esta forma sólo influye la distancia focal.
1.     La Profundidad de campo sólo existe en el contexto de una reproducción. No es una propiedad intrínseca de un lente y depende de valores de apreciación subjetivos.
2.     La frase aceptablemente nítida se refiere a la zona que rodea el plano de la imagen que está en foco. Todos los puntos en una fotografía están fuera de foco en cierta medida (aunque no sea obvio), solo un plano está perfectamente enfocado. Los límites de la profundidad de campo son precisamente donde la falta de nitidez se vuelve inaceptable para el observador.
La profundidad de campo no es una zona en la que la fotografía está enfocada perfectamente sino la zona de la fotografía donde el foco es lo suficientemente cercano al plano nítido como para ser aceptable. La profundidad de campo no dicta tampoco cuán borrosos estarán los planos alejados del plano nítido, una confusión común.
La profundidad de campo aumenta en relación inversa a la apertura, es decir, cuanto más cerrado se encuentra el diafragma o lo que es lo mismo, cuanto mayor sea el número f elegido. Por ejemplo, con un diafragma de f5,6 la profundidad de campo no será muy amplia, mientras que con un diafragma de f11 o de f16 será considerable.
Por otra parte, cuanto más cerca se encuentre el motivo que se desea fotografiar, menor será la profundidad de campo, independientemente del diafragma seleccionado. Si se utilizan teleobjetivos también se reduce la profundidad de campo. Pero con objetivos angulares, la profundidad de campo aumenta.


EFECTO DEL ACERCAMIENTO O ZOOM SOBRE LA PROFUNDIDAD DE CAMPO


Este es un ejemplo de como con el zoom de una pequeña cámara digital portátil, podemos crear el efecto deseado, restándole importancia al fondo y maximizando la atención sobre la flor.
En este caso, podemos observar como alejándonos del objeto, y usando el instrumento de acercamiento (zoom), podemos reducir la profundidad de campo, manteniendo el tamaño del objeto fotografiado.

EFECTO DEL DIAFRAGMA SOBRE LA PROFUNDIDAD DE CAMPO

Efecto del diafragma sobre la profundidad de campo. Los puntos en el plano enfocado (2), proyectan puntos en el plano imagen, pero los que están fuera del plano enfocado (1 y 3) causan un círculo de confusión, proyectando una imagen borrosa. Al emplear un diafragma, el área efectiva de la lente (4) se reduce, reduciendo a su vez el tamaño de los círculos de confusión (ya que el ángulo entre los rayos de máxima separación angular provenientes de un mismo punto ven reducida esa separación angular por el diafragma), así que objetos alejados del plano enfocado se ven más nítidos, lo que aumenta la profundidad de campo (la distancia alrededor del plano enfocado a la que los objetos se ven con una cierta nitidez).
El hecho de que un diafragma muy abierto reduzca la profundidad de campo, explica que las personas miopes vean peor de noche ya que el rango enfocado se reduce, el defecto visual se hace más evidente debido a que hace falta más precisión en el enfoque.

Velocidad de disparo


Velocidad de disparo, es un término usado en fotografía para referirse al tiempo que el obturador se mantiene abierto desde que se dispara la foto, es decir, el tiempo durante el cual estará entrando luz por el objetivo. Se usa para tratar el tiempo de exposición.

INTRODUCCIÓN

El término velocidad de disparo es el tiempo que el obturador permanece abierto dejando pasar la luz al sensor. En la fotografía digital es el tiempo que el sensor de imagen “ve” la escena que está tratando de capturar. Junto a la apertura del diafragma, es uno de los principales componentes necesarios para formar una exposición adecuada.
En general se mide en segundos o fracciones de segundo; 1”, 2”, 1/20, 1/60, 1/250. Lo más frecuente es disparar con fracciones de segundo, que a veces por comodidad se suelen expresar en la cámara con cifras como 30, 60, 250, 2000, etc. Lo habitual es que una cámara pueda seleccionar entre velocidades que van desde los 30” hasta los 1/2000. Cuanto mayor es el denominador, mayor será la velocidad, es decir, que será mucho más rápida. Esas velocidades son las más utilizadas, ya que algo más lento es difícil de usar sin tener movimiento de la cámara mientras que el obturador se abre y da lugar a falta de definición en las fotografías. Para ello es necesario un trípode o algún tipo de estabilización de imagen.
Múltiples son las combinaciones de velocidad de disparo dependiendo de lo que quiera hacer. Velocidades cortas (también llamadas rápidas) se pueden utilizar para congelar el movimiento, por ejemplo de un coche de F1, en cambio velocidades de larga exposición (también llamadas lentas) se pueden utilizar para difuminar intencionalmente movimiento para efectos artísticos o para hacer fotografías nocturnas con poca luz, las cuales necesitan esa velocidad para que llegue más cantidad de luz al sensor. Hay que tener en cuenta que cuanto menor sea la velocidad, más sensible es la imagen en cuanto a la vibración de la cámara.
A menudo las cámaras incluyen una o dos opciones para hacer exposiciones muy largas:
·         Bulb: mantiene el obturador abierto, siempre y cuándo el disparador se mantiene.
·         Por tiempo: el obturador se mantiene abierto hasta que el disparador se presiona de nuevo.
Hay una regla que sirve de orientación. Dice que la velocidad mínima de disparo que te asegura que no te salga movida la imagen es la inversa a la distancia focal que uses; es decir, si disparas con un 300 mm deberías hacerlo a una velocidad de 1/300 para asegurarte que no le salga movida, aunque también dependa de otras condiciones.
La apertura y control de velocidad de disparo para una exposición tienen una relación muy fuerte. El tamaño del diafragma del objetivo permite la entrada de luz a través de la lente y controla la profundidad de campo. La velocidad regula el tiempo para absorber la cantidad de luz.

UTILIDAD EN FOTOGRAFÍA

La velocidad de disparo es uno de los métodos para manipular los efectos visuales de la imagen final más allá de su luminosidad. La selección de diferentes velocidades de disparo dará lugar a otro tipo de efecto visual en una fotografía final. El movimiento no siempre es malo. Hay momentos que el movimiento es bueno. Por ejemplo, cuando se hace una foto de una cascada y se desea mostrar lo rápido que se desliza el agua, o cuando se hace una foto de un coche de carreras y se desea dar sensación de velocidad, o cuando se hace una foto al cielo por la noche y se desea mostrar el movimiento de las estrellas en un período más largo de tiempo. En todos estos casos la elección de una velocidad de disparo más prolongada será el camino a seguir. Sin embargo, en todos estos casos es necesario utilizar un trípode. La mayoría de la gente relaciona “lento” con desenfoque de una imagen, pero a veces puede crear un impacto visual más potente que las imágenes hechas con la congelación de alta velocidad de disparo.
Una operación de la cámara en modo manual requiere que se establezca la velocidad de disparo y el diafragma en la lente de forma manual. Aun así, existen otros modos que permiten tener una de las dos opciones automáticas:
·         Con prioridad de disparo AE: Un modo de exposición con que le permite seleccionar la velocidad deseada y la cámara entonces establece el valor de apertura a juego para una exposición correcta. Si cambia la velocidad de disparo, o los cambios de nivel de luz, la cámara ajusta la apertura en consecuencia.
·         Con prioridad de apertura AE: Un modo de exposición que le permite ajustar la abertura, mientras que la cámara ajusta la velocidad de disparo para una correcta exposición. Si cambia la abertura, o los cambios de nivel de luz, la velocidad de disparo cambiará automáticamente.
En la mayoría de los casos, prioridad de apertura AE es generalmente representado por una "A" y prioridad de disparo AE está representado por "Tv" o "S”.
La lista siguiente proporciona una visión general de los usos comunes de fotografía para velocidades de disparo estándar.
·         1 / 16000: La velocidad más rápida disponible.
·         1 / 8000: La velocidad más rápida disponible en la producción de SLR cámaras a partir de 2009. Se utiliza para tomar fotografías nítidas de sujetos en rápido muy, como las aves o los aviones, en condiciones de buena iluminación, con un número ISO de 1000 o más y una apertura de la lente de gran tamaño.
·         1 / 4000: La velocidad más rápida disponible en los consumidores cámaras SLR a partir de 2009. Se utiliza para tomar fotografías nítidas de sujetos en rápido, como los atletas o vehículos, en condiciones de buena iluminación y con una sensibilidad ISO de hasta 800.
·         1 / 2000 y / 1000: Se utiliza para tomar fotografías nítidas de sujetos en rápido moderadamente bajo condiciones normales de iluminación.
·         1 / 500 y / 250: Se utiliza para tomar fotografías nítidas de personas en movimiento en situaciones cotidianas.
·         1 / 125: Esta velocidad, y los más lentos, ya no son útiles para el movimiento del punto de congelación. 1 / 125 se utiliza para obtener una mayor profundidad de campo y la nitidez general de la fotografía de paisaje y también se usa para desplazar disparos.
·         1 / 60: Se utiliza para desplazar tomas y las imágenes tomadas en condiciones de poca luz.
·         30.1: Se utiliza para desplazar objetos en movimiento a menos de 30 millas por hora (48 km/h) y de la luz fotografías disponibles. Las imágenes tomadas en este y velocidades más lentas requieren normalmente un trípode de cámara de otro tipo de apoyo o ser fuerte.
·         1 / 15 y / 8: Este y velocidades más lentas son útiles para otras fotografías que son panorámicas en el desenfoque de movimiento se emplea para el efecto deliberado, o para tomar fotografías nítidas de sujetos inmóviles bajo malas condiciones de iluminación con un apoyo del trípode de cámara.
·         1.4 s, 1 / 2: También se utiliza principalmente para efectos de desenfoque de movimiento y/o fotografía con poca luz, pero sólo la práctica con un apoyo del trípode de cámara.
·         De 1 minuto a varias horas: se utiliza con una cámara fija mecánicamente en astrofotografía y para ciertos efectos especiales.
Es indiferente la combinación de tiempo y cantidad de luz, siempre y cuándo la cantidad de luz sea la correcta junto con el tiempo. La mayoría de las cámaras SLR convencionales tienen un marcado la velocidad de disparo en el panel superior del cuerpo de la cámara para ajustar la velocidad del obturador, aunque eso depende mucho del diseño de la cámara.
Velocidad de disparo 1/1000
Velocidad de disparo 1/4
Velocidad de disparo 15 segundos
Velocidad de disparo 30 segundos (Noche)
Organización Internacional de Normalización
La Organización Internacional de Normalización o ISO (del griego, ἴσος (isos), 'igual'), nacida tras la Segunda Guerra Mundial (23 de febrero de 1947), es el organismo encargado de promover el desarrollo de normas internacionales de fabricación (tanto de productos como de servicios), comercio y comunicación para todas las ramas industriales a excepción de la eléctrica y la electrónica. Su función principal es la de buscar la estandarización de normas de productos y seguridad para las empresas u organizaciones (públicas o privadas) a nivel internacional.
La ISO es una red de los institutos de normas nacionales de 164 países, sobre la base de un miembro por país, con una Secretaría Central en Ginebra (Suiza) que coordina el sistema. La Organización Internacional de Normalización (ISO), con sede en Ginebra, está compuesta por delegaciones gubernamentales y no gubernamentales subdivididos en una serie de subcomités encargados de desarrollar las guías que contribuirán al mejoramiento.
Las normas desarrolladas por ISO son voluntarias, comprendiendo que ISO es un organismo no gubernamental y no depende de ningún otro organismo internacional, por lo tanto, no tiene autoridad para imponer sus normas a ningún país. El contenido de los estándares está protegido por derechos de copyright y para acceder ellos el público corriente debe comprar cada documento.
Está compuesta por representantes de los organismos de normalización (ON) nacionales, que produce diferentes normas internacionales industriales y comerciales. Dichas normas se conocen como normas ISO y su finalidad es la coordinación de las normas nacionales, en consonancia con el Acta Final de la Organización Mundial del Comercio, con el propósito de facilitar el comercio, el intercambio de información y contribuir con normas comunes al desarrollo y a la transferencia de tecnologías.
La Organización ISO está compuesta por tres tipos:
·         Miembros simples, uno por país, recayendo la representación en el organismo nacional más representativo.
·         Miembros correspondientes, de los organismos de países en vías de desarrollo y que todavía no poseen un comité nacional de normalización. No toman parte activa en el proceso de normalización pero están puntualmente informados acerca de los trabajos que les interesen.
·         Miembros suscritos, países con reducidas economías a los que se les exige el pago de tasas menores que a los correspondientes

Diafragma (óptica)


Diferentes aberturas del diafragma.
El diafragma es el estrechamiento variable por medio de un sistema de láminas finas que, situado entre las lentes del objetivo , permite graduar la cantidad de luz que entra a la cámara. Suele ser un disco o sistema de aletas dispuesto en el objetivo de una cámara de forma tal que restringe el paso de la luz, generalmente de forma ajustable. Las progresivas variaciones de abertura del diafragma se especifican mediante el número f, que es la relación entre la longitud focal y el diámetro de abertura efectivo.

DIAFRAGMA EN FOTOGRAFÍA


Diafragma de 20 laminas dentro de un lente técnico

Diafragma desnudo

Evolución


El diafragma es la parte de la cámara que determina el tamaño de la abertura. En su forma más elemental, usada en las cámaras más antiguas, no era más que una placa perforada.

Diafragma y número f


La capacidad que tiene un objetivo para dejar pasar la luz se denomina luminosidad. Una de las maneras de indicar esta luminosidad es mediante el número f que se define como la división de la distancia focal del objetivo por el diámetro de la abertura efectiva. Esta relación da lugar a una escala normalizada en progresión de  : 1 - 1,4 - 2 - 2,8 - 4 - 5,6 - 8 - 11 - 16 - 22 - 32 - 45 etc. El salto de un valor al siguiente se llama paso. El valor mínimo que puede tener el número f es 0,3. Aunque este valor es inalcanzable en la práctica.

Estrictamente hablando, el número f no depende de la distancia focal del objetivo, sino de la distancia a la que está el centro óptico (el nodo único de una lente delgada con la misma potencia que el objetivo) de la imagen que forma. Cuando el objetivo está enfocado "a infinito" esta distancia resulta ser la inversa de la potencia del objetivo (distancia focal). Por tanto al enfocar a otras distancias la luminosidad cambia, reduciéndose. Esta variación está minimizada para que quede dentro de un tercio de paso de la luminosidad teórica aportada por el número f. En cine sí se tiene en cuenta esta variación y se emplean dos números para indicar la luminosidad: el f y el t. El f es calculado y sirve para determinar la profundidad de campo. El t es el número f teóricamente correspondiente a la luminosidad real medida. Estos números no suelen diferir en más de un tercio de paso.

Diafragma y profundidad de campo


El diafragma afecta en gran medida la profundidad de campo. Cuanto más cerrado esté (mayor número f), mayor será la profundidad de campo. Cuanto más abierto esté (menor número f) más pequeña es la profundidad de campo. Este comportamiento es debido al fenómeno de colimación de la luz. Los rayos de luz que pasan por una apertura pequeña están más alineados que en una apertura grande y esto se traduce en mayor nitidez a distancias más alejadas del punto focal.

Diafragma y nitidez

El diafragma tiene consecuencias directas también en la nitidez de la imagen. Con aperturas pequeñas (número f alto) la difracciónaumenta afectando negativamente la nitidez. Con aberturas pequeñas se obtiene mayor nitidez pero en un área más limitada, debido al incremento de la profundidad de campo. Aunque en teoría debería conseguirse mayor nitidez con aperturas grandes, en la práctica esto no es así, pues a aperturas mayores (número f pequeño), las limitaciones de diseño del objetivo conocidas como aberraciones, dominan sobre la apertura amplia y la nitidez empeora. Para objetivos antiguos, una regla práctica para obtener buena nitidez es situar la apertura de f/8 a f/11, con lo que además se consigue una buena profundidad de campo. Los objetivos más modernos suelen tener elementos múltiples y lentes especiales que corrigen las aberraciones, lo cual permite lograr mayor nitidez a números f más bajos, generalmente entre f/5.6 y f/6.3. El valor óptimo del número f para máxima nitidez es una característica propia de cada objetivo que los fabricantes no suelen publicar, pero que puede obtenerse haciendo pruebas a diferentes aperturas. Al punto óptimo de nitidez de un objetivo se le denomina "punto dulce".
TIPOS DE PLANOS ANGULACION Y COMPOSICION
·         1. FOTOGRAFÍA Tipos de planos Angulación Composición
·         2. Tipos de plano
·         3. Tipos de plano: GRAN PLANO GENERAL Empleado para describir una gran extensión visual. La figura humana es imperceptible.
·         4. Tipos de plano: PLANO GENERAL Empleado para describir. Abarca una visión general, la figura humana sí aparece ahora de modo perceptible.
·         5. Tipos de plano: PLANO DE CONJUNTO Se percibe un grupo de figuras en su totalidad. Presenta relación entre los personajes. Hay varias figuras humanas.
·         6. Tipos de plano: PLANO ENTERO Capta el cuerpo entero de una persona o grupo de personas
·         7. Tipos de plano: PLANO AMERICANO La figura humana está cortada por las rodillas. Nos aproximamos al personaje . Muestra la expresividad del rostro e insinúa algo del escenario.
·         8. Tipos de plano: PLANO MEDIO Corta a las personas por la cintura. Muestra relación y diálogo. Con este encuadre se percibe algo más de expresión en los personajes.
·         9. Tipos de plano: PRIMER PLANO Muestra el rostro de las personas. Trasmite emociones y sentimientos. Permite intuir el estado emotivo del personaje.
·         10. Tipos de plano: PRIMERÍSIMO PRIMER PLANO Empleado para analizar, desde la barbilla hasta la parte superior de la cabeza.
·         11. Tipos de plano: PLANO DETALLE Representa una pequeña parte de la figura humana o un objeto, enseña algo de forma especial.
·         12. Ángulos
·         13. Ángulos : ÁNGULO MEDIO O NATURAL La cámara se sitúa a la altura de los ojos del personaje. Se utiliza para dar naturalidad a la escena.
·         14. Ángulos : ÁNGULO PICADO La imagen se capta desde arriba, por encima de los personajes o de los objetos. Se utiliza para empequeñecer o ridiculizar un personaje. Busca efectos de inferioridad, angustia y soledad.
·         15. Ángulos : ÁNGULO CONTRAPICADO La acción se capta desde abajo. La cámara se sitúa por debajo. Se utiliza para producir una sensación de superioridad, grandiosidad, soberbia o poderío.
·         16. Ángulos : ÁNGULO CENITAL La cámara se sitúa desde arriba en posición completamente perpendicular a las personas u objetos fotografiados.
·         17. Ángulos : ÁNGULO NADIR La cámara se sitúa desde abajo en posición completamente perpendicular a las personas u objetos fotografiados.
·         18. Composición
·         19. Composición: LEY DEL HORIZONTE Si dividimos el espacio de la imagen en tres bandas iguales, en la gran mayoría de las ocasiones, se aconseja dar alrededor de dos bandas a la zona donde se encuentra el motivo principal, y más o menos una banda a la zona secundaria.
·         20. Composición: LEY DE LA MIRADA Es aquella ley en que toda persona, animal o cosa, dentro del recuadro fotográfico debe de tener más espacio libre hacia su parte frontal que lo que ocupa su parte trasera
·         21. Composición: LEY DE LOS TRES TERCIOS Según la división por tercios de una escena, la confluencia de los tercios marcan unos puntos donde se hacen llamativos los objetos, llamados puntos fuertes. Es recomendable hacer coincidir los objetos con estos puntos.
·         22. Composición: SIMETRÍA Consiste en colocar espacialmente objetos o formas iguales o de igual peso en función de un eje o de un punto.
·         23. Composición: DIAGONAL Se trata de buscar la coincidencia de los elementos que forman la imagen con la diagonal del espacio fotográfico.