martes, 27 de septiembre de 2016

COMPRENSIÓN LECTORA Y REDACCIÓN I



COMPRENSIÓN LECTORA  Y  REDACCIÓN  I


TIRAS COMICAS

¿Qué es la tira cómica? es la modalidad más popular de la historieta, se caracteriza por poseer pocas viñetas (cuatro o cinco uniformes en cuanto a su forma) en donde se desarrolla el chiste empezando el relato en la primera y terminando en la última (es decir, es autoconclusiva) con un carácter  humorístico. Se la encuentra en diarios y revistas, teniendo un espacio específico. Debe brindarle al lector una comprensión rápida y también generarle gracia. Es decir, la tira cómica debe ser breve, fácil de entender y graciosa. Su formato es rígido, poco flexible ya que debe ajustarse al estilo del diario donde está inmersa.

La diferencia sustancial con la historieta propiamente dicha es que esta última continúa una historia en entregas sucesivas, semanales, quincenales, etc. Las tiras comienzan y terminan en esas pocas viñetas. Otro rasgo característico es que la historieta se basa, principalmente en relatos de aventuras y acción, pareciéndose mucho a series televisivas, como por ejemplo: Superman, el Hombre Araña, etc.

Las tiras cómicas de los diarios abarcan dos cuestiones y en ellas públicos diferentes: el dibujo y a veces los chistes, destinados para el público infantil, lo irónico y su relación con el contexto actual, para los adultos.

Las tiras empezaron a publicarse en revistas como “Caras y caretas”. La contratapa del diario “Clarín” fue el primer espacio dedicado a estos tipos de texto.

Así, las tiras cómicas se dedicarán a comentar lo que ocurre en el ámbito político, social, económico, empezando por Mafalda, que fue la tira pionera en esta cuestión surgiendo a fines de los años sesenta convirtiéndose en la tira más famosa. Se convirtió en un símbolo de la época, caracterizándose por su visión crítica.


martes, 20 de septiembre de 2016

HABILIDADES BÁSICAS DEL PENSAMIENTO



                                LAS PRIMERAS TEORÍAS DE LA PSICOLOGÍA COGNITIVA

No todos los psicólogos interesados en la cognición se movían dentro del marco de la psicología mediacional neohuliana. En Europa surgió un movimiento llamado estructuralismo como enfoque multidisciplinar para las ciencias sociales que influyó en la psicología estadounidense de finales de los años cincuenta y sesenta.
Durante la guerra los psicólogos sociales se habían dedicado a estudiar las actitudes, cómo podían ser modificadas mediante la persuasión y la propaganda, y la relación entre actitudes y personalidad. Tras la guerra, los psicólogos sociales siguieron desarrollando teorías acerca de cómo las personas forman sus creencias, las integran y actúan en función de ellas. Por último, Jerome Bruner estudió cómo la dinámica de la personalidad moldea la percepción del mundo que tienen las personas y cómo éstas solucionan problemas complejos.

El estructuralismo, en su acepción moderna, fue un movimiento que abarcó la filosofía, la crítica literaria y las ciencias sociales en la Europa continental (paradigma unificador de todas las ciencias sociales). Los máximos exponentes del estructuralismo, Claude Lévi- Strauss, Michel Foucault y Jean Piaget llevaron a cabo un intento racionalista platónicocartesiano de describir la mente humana trascendente. El estructuralismo se solía asociar con los psicólogos cognitivos más radicales. Los estructuralistas creían que los patrones de conducta humana, individuales o sociales, se podían explicar por referencia a estructuras abstractas de naturaleza lógica o matemática.
El estructuralista más importante, Jean Piaget, criticó a los filósofos por contentarse con las especulaciones de sillón sobre el desarrollo del conocimiento, cuando los temas epistemológicos se podían estudiar empíricamente con la epistemología genética. Dividió el desarrollo del intelecto en cuatro etapas, cada una de ellas definida según un conjunto específico de estructuras cognitivas lógicas. Para Piaget, la inteligencia se desarrolla por una serie de transformaciones cualitativas en las distintas etapas de desarrollo del niño.
Intentó describir el pensamiento propio de cada etapa construyendo modelos sumamente abstractos de las estructuras mentales basados en la lógica formal, los cuales guiaban la conducta inteligente.
La epistemología genética no era más que la epistemología Kantiana con un giro evolutivo. Kant había afirmado que el Yo transcendental no se podía conocer, pero Piaget pensaba que su versión, el sujeto cognoscente, revelaba su naturaleza en el curso de su desarrollo, y por lo tanto ésta se podía inferir a partir de la observación de la conducta del niño en la resolución de problemas.
Los estudios posteriores demostraron que las etapas del desarrollo de Piaget ni estaban tan bien definidas ni eran tan rígidas como él sugería, y que además tendía a infravalorar excesivamente la inteligencia de los niños. Hoy en día Piaget es citado como percusor del estudio del desarrollo cognitivo, pero su teoría tiene escasa influencia.
Historia de la Psicología.

LA    CIENCIA  COGNITIVA
La cognición en la psicología social
La psicología social es el estudio de la persona como ser social. Durante las décadas de los cuarenta y los cincuenta siguió empleando conceptos mentales propios del sentido común.
Una teoría de gran influencia surgida a finales de los cincuenta e inicios de los sesenta fue la teoría de la disonancia cognitiva de Leon Festinger que giraba en torno a las creencias de una persona y a la interacción de dichas creencias. Festinger mantenía que las creencias pueden encajar o contraponerse unas a las otras. Cuando las creencias se contraponen, producen un estado desagradable denominado disonancia cognitiva, que la persona intenta reducir. Uno de sus estudios clásicos parecía desafiar la ley del efecto (experimento de las tareas aburridas.. etc.).
Desde un punto de vista histórico, lo más relevante de la teoría de la disonancia cognitiva
es el hecho de que era una teoría cognitiva: una teoría sobre entidades mentales, concretamente sobre las creencias de las personas. No se trataba de una teoría conductista informal, puesto que Festinger no consideraba las creencias como respuestas mediacionales, sino que las entendía en términos del sentido común, como creencias que controlan la conducta. Los psicólogos sociales no desafiaron al conductismo más que en raras ocasiones, pero su trabajo suponía una alternativa al mismo.
Nuevas teorías cognitivas sobre la percepción y el pensamiento. La teoría del New Look en percepción. Poco después de la guerra surgió un nuevo enfoque en el estudio de la percepción,
liderado por Jerome S. Bruner que recibió en nombre de New Look. El propósito de este  nuevo enfoque era unificar varias áreas diversas de la psicología y el deseo de refutar la concepción dominante según la cual la percepción era un proceso pasivo mediante el que un estímulo se imprimía en el perceptor. Para ello propusieron un enfoque psicoanalítico de la percepción según el cual el perceptor desempeñaba un papel activo en lugar de ser un registro pasivo de datos sensoriales. La personalidad del perceptor y su marco social influyen sobre lo que el preceptor ve. De los estudios en este sentido, el más conocido y polémico giraba en torno a la defensa perceptiva y planteó la posibilidad de la percepción subliminal.
El estudio del pensamiento. En el libro Estudio del pensamiento de Bruner, éste investigó cómo las personas forman conceptos y clasifican los nuevos estímulos según diferentes categorías conceptuales.
Junto con Goodnow y Austin estudiaron la formación de conceptos como un proceso activo, no como un proceso asociativo, en el que las elecciones del sujeto se guían por una determinada estrategia ideada para solucionar el problema. El sujeto no se considera un conector pasivo de E y R, ni siquiera de E-r-e-E; tampoco era considerado como punto de confluencia de variables. Por el contrario, se entendía la formación de conceptos como un proceso intelectual activo en el que un sujeto elabora y sigue determinadas estrategias y procesos de decisión que le guían hasta el concepto correcto.
Historia de la Psicología.

LA  CIENCIA  COGNITIVA
LA MECANIZACIÓN DEL PENSAMIENTO
La inteligencia artificial
Una tendencia científica constante ha sido la mecanización de la imagen del mundo. En el siglo XX los psicólogos lucharon contra el último bastión de la teología: la conducta propositiva animal y humana.
Los psicólogos:
a) Podían intentar explicar la conducta propositiva haciendo referencia a eventos internos, como Tolman hizo más adelante, pero corrían el riesgo de inventar un misterioso fantasma interior cuyas funciones seguirían siendo inescrutables.
b) Podían intentar explicar la conducta propositiva en términos estrictamente mecánicos, como Hull había hecho, o en términos de un control ambiental más sutil de la conducta, como había hecho Skinner, pero aunque esta postura era adecuadamente científica y dura, parecía negar el hecho evidente de que la conducta se dirige a metas.
c) Siguiendo a Brentano y Wittgenstein, o al Tolman de los primeros años, podían aceptar el propósito como una verdad irreducible de la acción humana, que ni requiere ni necesita explicación. Esta opción negaba que la psicología pudiese ser una ciencia.
De la investigación científica llevada a cabo durante la Segunda Guerra Mundial brotaron los modernos ordenadores digitales de alta velocidad, aportando conceptos que parecían salvar el escollo del “fantasma en la máquina”, haciendo así más atractiva que nunca la primera alternativa. De estos conceptos, los más importantes eran la retroalimentación informativa y el programa del ordenador.
La solución al problema del propósito: el concepto de retroalimentación
El concepto de retroalimentación prometía la posibilidad de tratar todas las conductas propositivas como casos de retroalimentación. El organismo tiene una meta, puede medir la distancia que le separa de ella y se comporta de manera tal que reduce y finalmente elimina esa distancia. La definición de inteligencia artificial.
Las máquinas, por tanto, podían ser propositivas. A. M. Turing en su obra “Maquinaria informática e inteligencia” definía el ámbito de la inteligencia artificial y establecía el programa de la ciencia cognitiva. Proponía que se considerase que un ordenador es inteligente si consigue hacerse pasar por el ser humano en esta prueba. Dicha prueba se ha conocido como “prueba de Turing” y es aceptado como criterio de la inteligencia artificial. El término inteligencia artificial (IA) lo acuñó el científico informático John
McCarthy. Los profesionales de la IA pretenden crear máquinas que puedan desempeñar muchas de las tareas realizadas hasta entonces sólo por seres humanos.


LA   CIENCIA    COGNITIVA
El triunfo del procesamiento de la información. La distinción mente-cuerpo, programa-ordenador
E. G. Boring se planteó la misma pregunta que Turing: ¿ qué tendría que hacer un robot para ser considerado inteligente? Tras repasar las facultades intelectuales humanas y los primeros intentos que se habían hecho para imitarlas con máquinas, Boring formuló su propia versión de la prueba de Turing: “efectivamente, un robot al que no se le pudiera distinguir de un estudiante sería una prueba extremadamente convincente de la naturaleza mecánica del hombre y de la unidad de la ciencia”. Las esperanzas de Boring se han convertido en las expectativas de los científicos cognitivos contemporáneos.
Alejándose considerablemente del conductismo, Broadbent afirmó que los psicólogos deberían considerar las entradas sensoriales no como estímulos físicos, sino como información. El funcionalismo físico de un ordenador está controlado por la información contenida en el programa que se ejecuta en él, pero el programa no es ninguna alma sustancial. La concepción de la mente en términos de información permitió que los psicólogos tuviesen una especie de dualismo mente-cuerpo que escapaba a los límites del conductismo fiscalista.
Los conceptos del procesamiento de la información se aplicaron rápidamente a la psicología cognitiva humana. Un hito histórico en esta línea fue el trabajo de George Miller.
En su artículo de 1965, Miller llamó la atención sobre las limitaciones de la atención y la memoria humanas, y allanó el camino para la primera ola masiva de investigaciones en el campo de la psicología del procesamiento de la información, que se concentraron en la atención y la memoria a corto plazo.
Como consecuencia de la denominación popular del ordenador como cerebro electrónico, había una fuerte tendencia a creer que era el propio aparato electrónico el que pensaba y que los psicólogos debían buscar paralelismos entre la estructura del cerebro humano y la de los ordenadores. James Miller (1955) concibió una “psicología comparada… que no trabajase con animales, sino con modelos electrónicos”.
La distinción entre ordenador y programa resultó crucial para la psicología cognitiva, porque significó que la psicología cognitiva no era neurología y que las teorías cognitivas del pensamiento humano deberían versar sobre la mente humana, no sobre el cerebro humano. La teoría estaría en el programa, nunca en el cerebro ni en el ordenador.
Comenzaba a surgir en los años cincuenta una nueva concepción del ser humano como máquina y un nuevo lenguaje con el que formular teorías acerca de los procesos cognitivos. El objetivo de la psicología consistiría en especificar cómo procesan la información los seres humanos. Los conceptos de estímulo y respuesta se sustituirían con de entrada (input) y salida (output) de la información, y las teorías sobre cadenas e-r
intermedias serían sustituidas por teorías sobre computaciones internas y estados computacionales.
Historia de la Psicología

La simulación del pensamiento
Allan Newell, J.C. Shaw y Herbert Simon formularon claramente la nueva concepción cognitiva de la psicología en Elementos de una teoría de resolución de problemas.
Trabajaron en programas para solucionar problemas. Su programa más potente fue el GPS (Solucionador general de problemas). Su enfoque consistía en describir la conducta del sistema mediante un programa bien especificado y definido en términos de procesos elementales de información. Una vez especificado el programa, intentan deducir propiedades generales del sistema a partir del programa comparando la conducta que
puede predecirse a partir del programa con la conducta real que observan, modifican el programa cuando se requiere alguna modificación para ajustarse a los hechos.
Newell, Shaw y Simon abandonaron la inteligencia artificial a favor de la simulación por ordenador porque consideraban que sus programas no sólo resolvían problemas, sino que además lo hacían del mismo modo que los humanos. La diferencia entre la IA y simulación por ordenador es importante porque la IA pura no es psicología.
El hombre máquina: el impacto de la metáfora del procesamiento de la información. El lenguaje del procesamiento de la información era riguroso, actual y tan cuantitativo, como mínimo, como la antigua teoría de Hull, y además no requería la dudosa hipótesis de que los procesos que vinculan estímulos y respuestas son exactamente iguales a los procesos monofásicos del aprendizaje animal. La psicología del procesamiento de la información hizo frente mejor que la teoría de Hull a la envidia de los psicólogos a los físicos, ya que los psicólogos del procesamiento de la información podían recurrir ahora a los ordenadores como encarnación de sus teorías. Las teorías podían no ser programas informáticos, pero tenían que ser como los programas informáticos en el sentido de que tenían que entender en pensamiento como el procesamiento formal de la información almacenada. Los psicólogos cognitivos albergaban la esperanza de que, en el futuro, sus teorías terminarían convirtiéndose en programas.
La derrota o marginación del conductismo Herbert Simon (1980) rechazaba el conductismo por limitado y por preocuparse demasiado por las ratas de laboratorio, y alababa la teoría del procesamiento de la información por contribuir a que la psicología adquiriese una nueva sofisticación y por crear un paradigma general, el paradigma del procesamiento de la información, que conservaba la operacionalidad del conductismo y la sobrepasaba en precisión y rigor.
El mito de la revolución cognitiva.
La psicología cognitiva del procesamiento de la información se entiende mejor como la última forma del comportamentalismo, con importantes afinidades con algunas formas históricas de conductismo.
La psicología cognitiva del procesamiento de la información sólo es considerablemente diferente del conductismo radical, porque los psicólogos del procesamiento de la información rechazan el periferialismo y creen que entre el estímulo (entrada) y la respuesta (salida) intervienen procesos complejos. Al contrario que Watson y Skinner, están dispuestos a inferir procesos mentales centrales a partir de la conducta observable.
Historia de la Psicología

La corriente del procesamiento de la información sigue los pasos de William James, Hull y Tolman porque entiende que hay procesos subyacentes a la conducta que deben ser investigados y explicados. El conductismo fue una de las respuestas de la psicología de la adaptación a la crisis; el procesamiento de la información fue otra.
Los científicos cognitivos prefieren hablar de revolución porque el término les proporciona un mito del origen. Pero no hubo ninguna revolución: el comportamentalismo prosiguió con un nuevo lenguaje, un nuevo modelo y nuevos intereses dirigidos a un fin ya conocido: la descripción, la predicción y el control de la conducta.
LA NATURALEZA DE LA CIENCIA COGNITIVA
Los sujetos de la ciencia cognitiva: los informávoros
A finales de los setenta, los campos de la inteligencia artificial y de la simulación por ordenador comenzaron a fundirse dando lugar a un nuevo campo, distinto de la psicología, denominado ciencia cognitiva.
La ciencia cognitiva se definía a sí misma como la ciencia de lo que George Miller denominaba los informávoros. La idea era que todos los sistemas de procesamiento de información operaban de acuerdo a los mismos principios, y por lo tanto constituían un único campo de estudio, la ciencia cognitiva, que convergía en torno al paradigma del procesamiento de la información (Simon, 1980).
Según Simon, la ciencia cognitiva humana tenía dos objetivos:
1.La ciencia cognitiva, al igual que el conductismo, deseaba demostrar que la conducta compleja podía reducirse a combinaciones de conductas más sencillas.
2.La ciencia cognitiva perseguía demostrar que el pensamiento humano se podía reducir a neurofisiología.
Un componente importante del optimismo de los científicos cognitivos, y la base conceptual de la fusión de la psicología cognitiva y la IA, fue la metáfora del ordenador (mentecuerpo/ programa-ordenador) conocida como funcionalismo. Porque es el funcionalismo el que hace posible que los científicos cognitivos consideren esencialmente semejantes a los seres humanos y a los ordenadores, a pesar de sus diferencias materiales.
Las mentes de los informávoros: el nuevo funcionalismo.
El funcionalismo simplemente extiende a los seres humanos la distinción programaordenador.
Concluye que la mente humana es un conjunto de funciones computacionales que dirigen el cuerpo. De este modo, los psicólogos pueden aspirar a predecir, controlar y explicar la conducta humana una vez que comprendan el programa humano, sin necesidad de conocer el sistema nervioso y el cerebro.
El atractivo del funcionalismo y del procesamiento de la información reside en que ofrecen una solución al problema conductista de cómo explicar la intencionalidad de la conducta sin mezcla alguna de teleología.

Dentro del comportamentalismo hubo dos enfoques básicos:
1) Los mecanicistas puros, como Hull, intentaron describir a humanos y animales como máquinas que responden ciegamente a cualquier estímulo con que se topen.
2) Tolman optó por una estrategia representacional: los organismos crean representaciones de su mundo, que emplean para dirigir su conducta manifiesta.
Las dos estrategias tenían defectos y terminaron fracasando. Al contrario que Hull, Tolman pudo demostrar que los animales no se limitan a responder a su entorno, sino que más bien aprenden sobre él y basan su conducta en más estímulos que los que actúan en cada momento, haciendo uso también de representaciones de experiencias anteriores almacenadas. El enfoque de Tolman, sin embargo, tropezó con el problema del homúnculo.
El funcionalismo conserva las virtudes de los enfoques de Hull y Tolman, pero evita sus vicios al invocar los procesos sofisticados de los programas informáticos en lugar de los vínculos r-e. Según el funcionalismo, los programas informáticos aplican las reglas
mecanicistas de Hull a las representaciones de Tolman, y, si el funcionalismo esta en lo cierto, también lo hacen los organismos vivos.
LA MADUREZ DE LA CIENCIA COGNITIVA: DEBATES Y  DESARROLLO
Incertidumbres
En los años ochenta, la ciencia cognitiva sufrió una especie de crisis de madurez. Hubo un problema ya que las pretensiones de la IA eran exageradas, por lo que hubo un descontento en el campo de la psicología. No se habían producido avances significativos en la ciencia cognitiva. Neisser afirmó ”haberse dado cuenta de que la noción de procesamiento de la información merecía un estudio más detallado”. Neisser comenzaba así a reivindicar un giro más realista para la psicología cognitiva.
Debates
Los desafíos de la intencionalidad
Como Lachman, Lachman y Butterfield (1979) habían afirmado, “la psicología del procesamiento de la información se halla fundamentalmente comprometida con el concepto de representación”. Brentano admitió que la intencionalidad es el criterio de la mente. Las representaciones de Tolman tienen intencionalidad.
Las representaciones no representan en virtud de su apariencia. Toda representación tiene tanto semántica como sintaxis. La semántica de una representación es su significado, y la sintaxis es su forma. El objetivo del funcionalismo es desmitificar la intencionalidad, inscribiendo la conducta y los procesos mentales en el marco de la ciencia mecanicista.
Esto se intenta hacer mediante la reducción de la semántica a la sintaxis.
El ordenador sólo opera según la sintaxis de una representación, aunque su conducta sea coherente con el conocimiento del significado de la representación.
Historia de la Psicología

Las personas adoptamos esta actitud intencional de forma natural hacia las personas, a veces hacia los animales, y en determinados casos hacia las máquinas. El programa no quiere, ni teme, ni intenta, simplemente realiza computaciones formales de patrones de usos y ceros, y nosotros consideramos eso como conducta intencional.
Dennett (1978, 1991) intentó armonizar estas dos opiniones reconociendo que en ciencia se debe considerar a las personas como si fuesen máquinas, pero que la psicología popular de las creencias y deseos se debería conservar para el uso cotidiano.
¿Es válida la prueba de Turing? El ordenador acepta entradas de un código binario, aplica reglas sintácticas para transformar estas representaciones nuevas y generan una salida o respuesta. Es única y exclusivamente el usuario el que pone nombre a lo que hace el ordenador. El argumento de Searle demuestra que la prueba de Turing no es una medida adecuada de la inteligencia. Searle continúa señalando una importante peculiaridad de la simulación cognitiva, en comparación con otros tipos de simulación. Los meteorólogos construyen simulaciones informáticas de huracanes, pero sus ordenadores no provocan vientos de 150 km/h. Sin embargo, los científicos cognitivos afirman que cuando simulan la inteligencia, si es que en realidad lo hacen (cuando un programa pasa la prueba de Turing), su máquina será verdaderamente inteligente. Searle distingue entre:
a) La IA débil sería mantener la distinción entre simulación y ejecución, y usar los ordenadores como los demás científicos, como dispositivos de cálculo maravillosamente útiles diseñando dispositivos con los que poner en marcha y comprobar teorías.
b) La IA fuerte es la afirmación de que la simulación de la inteligencia es inteligencia.
¿Es verosímil el formalismo? Como los ordenadores desarrollan una conducta simbólica podemos programarlos para que desempeñen multitud de funciones, cualquier cosa que se nos ocurra. Tras esta declaración subyacía el supuesto del formalismo. Los ordenadores pueden hacer cualquier cosa que se pueda escribir como programa informático, y la Comisión, asumiendo la afirmación de Simon de que los ordenadores pueden se pueden programar para hacer cualquier tarea desempeñada por el hombre, con su cualquier cosa que nos ocurra estaba afirmando implícitamente que cualquier cosa que hagan las personas es un procedimiento formal. Searle cuestionó al formalismo mecanicista. Otra cuestión, ésta más empírica, era el problema del marco, porque ponía en tela de juicio no sólo la capacidad de los ordenadores para imitar la inteligencia humana, sino la posibilidad misma de conseguir en algún momento verdadera inteligencia artificial.
En lugar de funcionar de forma computacional, los humanos parecen funcionar por intuición: se nos ocurren soluciones para los problemas sin pensar; la conducta adaptativa tiene lugar sin pensamiento. No tenemos que pensar para desechar todos los absurdos.
Pero un ordenador, como es un sistema formal, debe considerar todas las implicaciones de sus actos para luego desecharlas.