0% encontró este documento útil (0 votos)
34 vistas13 páginas

Clase 1-Escuelas Linguisticas

El documento aborda la evolución de la lingüística desde sus orígenes en la gramática prescriptiva y comparativa hasta enfoques contemporáneos como el generativismo y el funcionalismo. Se destacan figuras clave como Platón, Aristóteles, Saussure y Chomsky, así como las distintas corrientes que han influido en el estudio del lenguaje, incluyendo el estructuralismo y la lingüística cognitiva. A lo largo de los siglos, la lingüística ha pasado de ser una reflexión filosófica a una disciplina científica que analiza el lenguaje como un sistema complejo y dinámico.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
34 vistas13 páginas

Clase 1-Escuelas Linguisticas

El documento aborda la evolución de la lingüística desde sus orígenes en la gramática prescriptiva y comparativa hasta enfoques contemporáneos como el generativismo y el funcionalismo. Se destacan figuras clave como Platón, Aristóteles, Saussure y Chomsky, así como las distintas corrientes que han influido en el estudio del lenguaje, incluyendo el estructuralismo y la lingüística cognitiva. A lo largo de los siglos, la lingüística ha pasado de ser una reflexión filosófica a una disciplina científica que analiza el lenguaje como un sistema complejo y dinámico.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

1.

Orígenes: Lingüística tradicional y gramáticas comparadas


Siglos IV a.C. – XIX

Gramática prescriptiva (Grecia y Roma): Platón y Aristóteles reflexionaron sobre el lenguaje.


Dionisio de Tracia escribió la primera gramática del griego.
Panini (siglo IV a.C.): Gramática del sánscrito, primera descripción formal del lenguaje.
Gramática general y racional (siglo XVII-XVIII): Port-Royal (Arnauld y Lancelot), enfoque
filosófico basado en la lógica.
Lingüística comparada (siglo XIX): Se desarrolla el método comparativo, con estudios de
Franz Bopp, Jacob Grimm y Wilhelm von Humboldt, enfocándose en las relaciones
genealógicas entre lenguas.

2. Estructuralismo: La lengua como sistema


Principios del siglo XX

Ferdinand de Saussure (1916) → Curso de Lingüística General


Propone la dicotomía lengua vs. habla.
Introduce los conceptos de signo lingüístico, arbitrariedad, sincronía/diacronía.
Enfatiza que la lengua es un sistema de signos interrelacionados.
Escuelas estructuralistas
Estructuralismo europeo (Escuela de Praga - años 1920-1930)
Roman Jakobson, Trubetzkoy → desarrollan la fonología estructural, conceptos
como oposiciones fonológicas y rasgos distintivos.
Estructuralismo norteamericano (Bloomfield y el distribucionalismo - años 1930-1950)
Leonard Bloomfield: Método empírico basado en la observación de datos lingüísticos.
Zellig Harris: Distribucionalismo → análisis de las unidades lingüísticas por su
distribución en el discurso.

3. Generativismo: El lenguaje como facultad innata


Años 1950 en adelante

Noam Chomsky (1957) → Estructuras sintácticas

Crítica el estructuralismo conductista.


Propone la gramática generativa transformacional.
Introduce la distinción competencia vs. actuación y la idea de que el lenguaje es innato.
Evolución del generativismo

Teoría estándar (años 1960-1970) → mayor formalización del modelo.


Teoría del programa minimalista (años 1990-actualidad) → simplificación de la
gramática.

4. Funcionalismo: Lenguaje en uso y contexto social


Años 1970 en adelante
Michael Halliday → Lingüística sistémico-funcional

El lenguaje es un recurso semiótico, ligado a su función comunicativa.


Analiza la relación entre estructura lingüística y contexto social.

Sociolingüística (Labov, Hudson, Hymes)


Estudia el lenguaje en relación con la variación social y los cambios lingüísticos.
Pragmática y análisis del discurso (Sperber & Wilson, Grice, Van Dijk)

Se interesa en la intención del hablante, la interpretación del receptor y los efectos


comunicativos.

5. Teoría de la Enunciación y estudios contemporáneos


Desde los años 1970 hasta la actualidad

Émile Benveniste → Teoría de la enunciación

Propone los conceptos de enunciador y enunciatario.


Analiza la subjetividad en el lenguaje.

Escuelas contemporáneas
Lingüística cognitiva (Lakoff, Langacker) → lenguaje como reflejo del
pensamiento y la conceptualización.
Neurociencias y lingüística computacional → aplicaciones en IA, procesamiento
del lenguaje natural.

'
1. Orígenes: Lingüística tradicional y gramáticas comparadas
Siglos IV a.C. – XIX

.-Gramática prescriptiva (Grecia y Roma): Platón y Aristóteles reflexionaron sobre el


lenguaje. Dionisio de Tracia escribió la primera gramática del griego.
.-Panini (siglo IV a.C.): Gramática del sánscrito, primera descripción formal del lenguaje.
.-Gramática general y racional (siglo XVII-XVIII): Port-Royal (Arnauld & Lancelot), enfoque
filosófico basado en la lógica.
.-Lingüística comparada (siglo XIX): Se desarrolla el método comparativo, con estudios de
Franz Bopp, Jacob Grimm y Wilhelm von Humboldt, enfocándose en las relaciones
genealógicas entre lenguas.

''
1. Orígenes: Lingüística tradicional y gramáticas comparadas
La reflexión sobre el lenguaje se remonta a la Antigüedad, cuando filósofos como Platón y
Aristóteles plantearon cuestiones fundamentales sobre la relación entre las palabras y las
ideas, estableciendo las bases para la gramática prescriptiva en Grecia y Roma. En este
contexto, Dionisio de Tracia (siglo II a.C.) escribió la primera gramática del griego, en la que
categorizó las palabras en clases gramaticales y formuló reglas normativas para su uso
correcto. Mientras tanto, en la India, Pāṇini (siglo IV a.C.) desarrolló la primera descripción
formal del lenguaje en su obra Aṣṭādhyāyī, un sistema detallado de reglas para el sánscrito
que anticipa principios del análisis estructural moderno.

En los siglos XVII y XVIII, la gramática general y racional de la escuela de Port-Royal


(Arnauld & Lancelot) aplicó la lógica y la metafísica al estudio del lenguaje, argumentando
que las estructuras gramaticales reflejan principios universales del pensamiento humano.
Sin embargo, la lingüística como disciplina científica tomó forma en el siglo XIX con la
lingüística comparada, que surgió con el descubrimiento de las afinidades entre las lenguas
indoeuropeas. Filólogos como Franz Bopp, Jacob Grimm y Wilhelm von Humboldt
desarrollaron el método comparativo, permitiendo reconstruir lenguas ancestrales y
establecer relaciones genealógicas entre diferentes familias lingüísticas. Este enfoque
marcó el inicio del estudio sistemático del lenguaje como un fenómeno histórico y evolutivo.

'''
.-Gramática general y racional (siglos XVII-XVIII)
La gramática general y racional fue un enfoque filosófico del lenguaje que buscaba
identificar principios universales en todas las lenguas, basándose en la lógica y la
metafísica. Su obra más influyente fue la Gramática de Port-Royal (1660), escrita por
Antoine Arnauld y Claude Lancelot, pertenecientes al movimiento jansenista. En este
modelo, el lenguaje se concebía como una manifestación del pensamiento racional, donde
las estructuras gramaticales reflejaban las estructuras del razonamiento humano.

Uno de sus principales aportes fue la idea de que todas las lenguas comparten una
estructura subyacente común, lo que más tarde influiría en teorías como la gramática
universal de Noam Chomsky en el siglo XX. La gramática de Port-Royal también introdujo el
concepto de sujeto, verbo y complemento como categorías fundamentales en la sintaxis,
anticipando el análisis estructural moderno. Aunque este enfoque tenía un fuerte
componente especulativo y normativo, representó un intento temprano de sistematizar el
estudio del lenguaje de manera abstracta y filosófica.

.-Método comparativo y lingüística comparada (siglo XIX)


El método comparativo fue la primera metodología científica para el estudio de la evolución
lingüística y la clasificación de las lenguas en familias. Surgió en el siglo XIX con el
descubrimiento de similitudes sistemáticas entre el sánscrito, el latín, el griego y otras
lenguas europeas y asiáticas, lo que llevó al desarrollo de la lingüística comparada.

Uno de sus pioneros fue Franz Bopp, quien en 1816 publicó un estudio sobre la conjugación
verbal en lenguas indoeuropeas, demostrando que sus similitudes no eran coincidencias,
sino que derivaban de un ancestro común. Jacob Grimm formuló las famosas leyes de
Grimm, que explicaban cambios fonéticos regulares en las lenguas germánicas en
comparación con el indoeuropeo. Por su parte, Wilhelm von Humboldt introdujo una
perspectiva más filosófica y tipológica del lenguaje, considerando que cada lengua
estructura el pensamiento de manera particular (Weltansicht o visión del mundo).
El método comparativo se basaba en la identificación de cognados (palabras con un origen
común) y en la reconstrucción de formas lingüísticas ancestrales mediante el principio de
correspondencias fonéticas regulares. Esto permitió reconstruir el protoindoeuropeo, la
lengua madre hipotética de la mayoría de las lenguas europeas y algunas asiáticas,
estableciendo el modelo de árbol genealógico de las lenguas que sigue siendo un estándar
en la lingüística histórica.

________________________________

'
2. Estructuralismo: La lengua como sistema
Principios del siglo XX

.-Ferdinand de Saussure (1916) → Curso de Lingüística General


Propone la dicotomía lengua vs. habla.
Introduce los conceptos de signo lingüístico, arbitrariedad, sincronía/diacronía.
Enfatiza que la lengua es un sistema de signos interrelacionados.
.-Escuelas estructuralistas
.-Estructuralismo europeo (Escuela de Praga - años 1920-1930)
-Roman Jakobson, Trubetzkoy → desarrollan la fonología estructural, conceptos
como oposiciones fonológicas y rasgos distintivos.
.-Estructuralismo norteamericano (Bloomfield y el distribucionalismo - años 1930-1950)
-Leonard Bloomfield: Método empírico basado en la observación de datos lingüísticos.
-Zellig Harris: Distribucionalismo → análisis de las unidades lingüísticas por su
distribución en el discurso.

.-Leonard Bloomfield y el estructuralismo conductista


Leonard Bloomfield es una figura clave en el estructuralismo norteamericano. Su libro
Language (1933) establece un método riguroso para el análisis lingüístico, basado en la
observación empírica y el conductismo. Influenciado por la psicología behaviorista,
Bloomfield rechaza las explicaciones mentalistas del lenguaje y enfatiza que la lingüística
debe describir las formas lingüísticas y sus patrones de uso sin apelar a procesos internos
de los hablantes.

Sus principales aportes incluyen:

-Método descriptivo: analiza las lenguas a partir de sus estructuras sin preocuparse por el
significado.
Morfología y sintaxis: desarrolla un enfoque basado en la segmentación y clasificación de
unidades lingüísticas según su comportamiento estructural.
-Estudio de lenguas indígenas: su trabajo ayudó a documentar y analizar lenguas de
América con un enfoque sistemático y detallado.
Bloomfield promueve un modelo en el que la lengua es vista como un conjunto de estímulos
y respuestas, dejando de lado la dimensión psicológica o cognitiva del lenguaje.

.-Zellig Harris y el distribucionalismo


Zellig Harris, discípulo de Bloomfield, lleva el estructuralismo a un nivel más formalizado con
el distribucionalismo, que propone que las unidades lingüísticas pueden definirse
exclusivamente por los contextos en los que aparecen. Según Harris, el significado es
irrelevante para el análisis estructural del lenguaje, y lo único que importa es cómo se
distribuyen las palabras y los sonidos dentro de un corpus de datos.

Sus principales ideas incluyen:

.-Análisis distribucional: una palabra o morfema se define por los entornos lingüísticos en los
que aparece.
.-Estructura jerárquica: anticipa el concepto de estructura profunda en la gramática
generativa, influyendo en Noam Chomsky.
.-Algoritmos de segmentación: desarrolla procedimientos para descomponer enunciados en
unidades mínimas basándose en patrones de ocurrencia.
El distribucionalismo es un paso clave en la formalización de la lingüística, ya que introduce
un enfoque basado en reglas y análisis de corpus, lo que eventualmente abriría el camino a
la gramática generativa de Chomsky.

''
.-Ferdinand de Saussure y el nacimiento del estructuralismo
El estructuralismo lingüístico surge con Ferdinand de Saussure, quien, a partir de sus clases
recopiladas en el Curso de Lingüística General (1916), propone un enfoque innovador para
el estudio del lenguaje. Saussure introduce la idea de que la lengua es un sistema de signos
interrelacionados, donde cada elemento solo adquiere significado en relación con los
demás. Sus principales conceptos incluyen:

Lengua vs. habla: distingue entre el sistema lingüístico compartido por una comunidad
(lengua) y su realización individual en cada acto de comunicación (habla).
Signo lingüístico: compuesto por el significante (imagen sonora o forma) y el significado
(concepto mental), con una relación arbitraria entre ambos.
Sincronía vs. diacronía: prioriza el estudio de la lengua en un momento dado (sincronía)
sobre su evolución histórica (diacronía).
Saussure sienta las bases para el estructuralismo al plantear que el lenguaje debe
estudiarse como un sistema autónomo, con reglas internas independientes de factores
extralingüísticos.

.-Estructuralismo europeo: La Escuela de Praga (1920-1930)


La Escuela de Praga, encabezada por lingüistas como Roman Jakobson y Nikolái
Trubetzkoy, amplía el estructuralismo de Saussure con un enfoque funcionalista. Su mayor
contribución fue el desarrollo de la fonología estructural, que estudia los sonidos no solo
como elementos físicos, sino en función de su papel dentro del sistema lingüístico.

Trubetzkoy establece el concepto de oposiciones fonológicas, donde los sonidos se


distinguen por rasgos relevantes para la comunicación (por ejemplo, /p/ vs. /b/ en español,
diferenciados por el rasgo sonoro).
Jakobson introduce la teoría de los rasgos distintivos, estableciendo que los sonidos del
habla pueden descomponerse en características binarias (como nasal/no nasal,
sonoro/sordo).
La Escuela de Praga enfatiza el estudio de la lengua como un sistema dinámico y funcional,
donde cada unidad cumple un papel en la comunicación.

.-Estructuralismo norteamericano: Bloomfield y el distribucionalismo (1930-1950)


El estructuralismo en Estados Unidos toma un rumbo más empírico con Leonard Bloomfield,
quien enfatiza el método científico en la lingüística. Su obra Language (1933) establece un
enfoque conductista, donde el significado de una palabra solo puede definirse por las
respuestas observables que provoca en los hablantes, evitando interpretaciones
psicológicas o filosóficas.

Más tarde, Zellig Harris desarrolla el distribucionalismo, que analiza las unidades
lingüísticas según su distribución en el discurso, es decir, en qué contextos aparecen. Harris
introduce métodos de análisis sintáctico basados en patrones estructurales sin depender del
significado, influenciando a Noam Chomsky y su posterior teoría generativa.

El estructuralismo norteamericano, a diferencia del europeo, evita el enfoque funcionalista y


prioriza la descripción objetiva de las lenguas, particularmente de lenguas indígenas de
América, mediante la observación sistemática de datos lingüísticos.

________________________________

3. Generativismo: El lenguaje como facultad innata


Años 1950 en adelante

.-Noam Chomsky (1957) → Estructuras sintácticas


Critica el estructuralismo conductista.
Propone la gramática generativa transformacional.
Introduce la distinción competencia vs. actuación y la idea de que el lenguaje es innato.
Evolución del generativismo

.-Teoría estándar (años 1960-1970) → mayor formalización del modelo.


Teoría del programa minimalista (años 1990-actualidad) → simplificación de la
gramática.
'
3. Generativismo: El lenguaje como facultad innata
El generativismo surge en los años 1950 como una respuesta a los enfoques
estructuralistas y conductistas de la lingüística, especialmente en Estados Unidos. Su
principal exponente, Noam Chomsky, desarrolla un modelo que considera el lenguaje como
una capacidad innata del ser humano, lo que contrasta con la visión empirista y descriptiva
del estructuralismo.

.-Noam Chomsky y "Estructuras Sintácticas" (1957)


En su obra "Syntactic Structures" (1957), Chomsky introduce la gramática generativa
transformacional, una teoría que sostiene que el lenguaje humano se rige por reglas
abstractas que permiten generar un número infinito de oraciones a partir de un conjunto
finito de elementos. Este modelo cuestiona el enfoque conductista del lenguaje,
particularmente el de Leonard Bloomfield, quien veía la lingüística como un estudio empírico
basado en la observación del habla.

Uno de los conceptos centrales que introduce Chomsky es la distinción entre competencia y
actuación:

-Competencia: Conocimiento implícito y estructural de la lengua que posee un hablante


ideal.
-Actuación: Uso real del lenguaje, que puede verse afectado por factores externos como la
memoria o la atención.
Otro concepto clave es la hipótesis del innatismo lingüístico, que sostiene que los seres
humanos nacen con una capacidad innata para el lenguaje, lo que da lugar a la idea del
dispositivo de adquisición del lenguaje (LAD, por sus siglas en inglés). Esto explica por qué
los niños aprenden la lengua con rapidez y de manera espontánea, sin necesitar instrucción
explícita.

Evolución del generativismo


A lo largo de los años, la teoría generativa ha pasado por varias reformulaciones y
refinamientos.

.-1. Teoría Estándar (1960-1970)


En los años 1960, Chomsky amplía su modelo inicial con la llamada Teoría Estándar, en la
que introduce la distinción entre estructura profunda y estructura superficial.

La estructura profunda es la representación abstracta del significado de una oración.


La estructura superficial es la forma en que se manifiesta la oración tras pasar por
transformaciones gramaticales.
Por ejemplo, en la oración activa "Juan compró un libro", su equivalente pasivo "Un libro fue
comprado por Juan" tiene una estructura profunda similar, pero su estructura superficial es
diferente.

.-Durante los años 1970, con la Teoría Estándar Extendida, se refinaron aspectos
relacionados con la semántica y la relación entre estructuras sintácticas y significado.

.-2. Teoría del Programa Minimalista (1990 - actualidad)


En los años 1990, Chomsky introduce el Programa Minimalista, que busca simplificar la
teoría generativa eliminando reglas innecesarias y reduciendo la gramática a sus elementos
esenciales. En este modelo, el lenguaje se describe en términos de operaciones básicas
como Merge (fusión), que combina palabras para formar estructuras más complejas.

El minimalismo mantiene la idea de que el lenguaje es innato, pero se enfoca en la


eficiencia y en cómo la gramática interactúa con otros sistemas cognitivos.

________________________________

4. Funcionalismo: Lenguaje en uso y contexto social


Años 1970 en adelante
-Michael Halliday → Lingüística sistémico-funcional

El lenguaje es un recurso semiótico, ligado a su función comunicativa.


Analiza la relación entre estructura lingüística y contexto social.
Sociolingüística (Labov, Hudson, Hymes)

Estudia el lenguaje en relación con la variación social y los cambios lingüísticos.


Pragmática y análisis del discurso (Sperber & Wilson, Grice, Van Dijk)

Se interesa en la intención del hablante, la interpretación del receptor y los efectos


comunicativos.

'
.-4. Funcionalismo: Lenguaje en uso y contexto social
El funcionalismo lingüístico surge en los años 1970 como una reacción contra los enfoques
formales del lenguaje, en especial el generativismo de Chomsky. Mientras que la lingüística
generativa se enfoca en las estructuras internas de la lengua y su carácter innato, el
funcionalismo pone el énfasis en la relación entre la lengua y su uso en contextos sociales,
considerando que el lenguaje no es solo una estructura sino un recurso para la
comunicación.

.-Lingüística sistémico-funcional: Michael Halliday


Uno de los principales exponentes del funcionalismo es Michael Halliday, quien desarrolla la
lingüística sistémico-funcional. Según este enfoque, el lenguaje es un sistema semiótico
compuesto por opciones y elecciones que los hablantes hacen para cumplir diferentes
funciones en la comunicación.

Halliday argumenta que el lenguaje tiene tres metafunciones principales:

-Función ideativa: Expresa ideas y representa la realidad.


-Función interpersonal: Regula las relaciones entre hablantes y la interacción social.
-Función textual: Organiza la información en el discurso para que sea coherente.
Este enfoque se aleja de los modelos formales de la gramática y busca analizar el lenguaje
como una herramienta que varía según el contexto social y la intención del hablante.

.-Sociolingüística: El lenguaje y la variación social


Otro pilar del funcionalismo es la sociolingüística, que estudia cómo el lenguaje varía en
función de factores sociales como la clase, el género, la edad o la geografía.

Algunos de sus exponentes más importantes son:

-William Labov: Considerado el fundador de la sociolingüística variacionista, estudió la


relación entre el habla y las diferencias sociales. Su investigación sobre el inglés en Nueva
York mostró cómo ciertos rasgos lingüísticos estaban ligados a la clase social.
Ronald Hudson: Se enfocó en la relación entre variación lingüística y estructura social.
-Dell Hymes: Introdujo el concepto de competencia comunicativa, argumentando que el
dominio del lenguaje no solo implica conocimiento gramatical, sino también la capacidad de
usarlo adecuadamente en distintos contextos.
La sociolingüística desafía la idea de que la lengua es homogénea y muestra que el
lenguaje está en constante cambio debido a factores sociales y culturales.

.-Pragmática y análisis del discurso: Más allá de la estructura lingüística


Otro campo funcionalista clave es la pragmática, que estudia cómo el significado se
construye en la comunicación real. En lugar de centrarse en la gramática o la sintaxis, la
pragmática analiza el papel del contexto, la intención del hablante y la interpretación del
receptor.

Algunos de los teóricos más influyentes en este campo son:

-Paul Grice: Formuló el concepto de máximas conversacionales, que explican cómo los
hablantes cooperan en la comunicación. Su principio de cooperación establece que la gente
sigue reglas implícitas para que el intercambio lingüístico sea eficiente.
-Dan Sperber & Deirdre Wilson: Desarrollaron la teoría de la relevancia, que sostiene que
los hablantes optimizan la comunicación basándose en lo que consideran más relevante en
cada contexto.
-Teun van Dijk: Es una figura clave en el análisis del discurso, un enfoque que estudia cómo
el lenguaje es utilizado en textos y conversaciones para ejercer poder, influir en la opinión
pública y construir significados ideológicos.

________________________________

5. Teoría de la Enunciación y estudios contemporáneos


Desde los años 1970 hasta la actualidad

Émile Benveniste → Teoría de la enunciación

Propone los conceptos de enunciador y enunciatario.


Analiza la subjetividad en el lenguaje.
Escuelas contemporáneas

Lingüística cognitiva (Lakoff, Langacker) → lenguaje como reflejo del


pensamiento y la conceptualización.
Neurociencias y lingüística computacional → aplicaciones en IA, procesamiento
del lenguaje natural.
Conclusión
Este recorrido muestra cómo la lingüística pasó de estudios descriptivos y comparativos a
modelos estructurales, generativos, funcionalistas y cognitivos. Actualmente, la disciplina
sigue expandiéndose con enfoques interdisciplinares que conectan la lingüística con la
neurociencia, la informática y la inteligencia artificial.
''
5. Teoría de la Enunciación y estudios contemporáneos
Desde los años 1970 hasta la actualidad, la lingüística ha ampliado su campo de estudio
más allá de las estructuras del lenguaje y su uso social, incorporando perspectivas sobre la
subjetividad del discurso, la relación entre lenguaje y cognición, y el impacto de la
tecnología en el análisis del lenguaje.

Teoría de la Enunciación: Émile Benveniste y la subjetividad en el lenguaje


Uno de los avances clave en la lingüística contemporánea es la teoría de la enunciación,
desarrollada por Émile Benveniste. Su trabajo representa una ruptura con los modelos
tradicionales de comunicación, que concebían el lenguaje como un intercambio entre emisor
y receptor de información. Benveniste introduce los conceptos de enunciador y enunciatario,
destacando que cada enunciado es un acto subjetivo de producción de significado.

Los aportes principales de Benveniste son:

La subjetividad en el lenguaje: Sostiene que el lenguaje no es un simple reflejo de la


realidad, sino que construye la subjetividad del hablante. Cada vez que alguien habla, se
posiciona como sujeto dentro del discurso.
Las categorías de la enunciación: Propone que ciertos elementos lingüísticos (como los
pronombres personales "yo" y "tú", los tiempos verbales y los deícticos como "aquí" y
"ahora") no tienen un significado fijo, sino que su sentido se define en cada acto de
enunciación.
Diferencia entre lengua y discurso: Aunque la lengua es un sistema compartido por una
comunidad, el discurso es su uso concreto en situaciones comunicativas.
Esta perspectiva influenció estudios posteriores sobre la construcción del sujeto en el
lenguaje, el análisis del discurso y la semiótica.

Escuelas contemporáneas y nuevas perspectivas


En las últimas décadas, la lingüística ha seguido evolucionando, integrando aportes de la
cognición, la tecnología y las neurociencias para profundizar en el estudio del lenguaje.

Lingüística cognitiva: El lenguaje como reflejo del pensamiento


A diferencia de los modelos estructurales y generativos, la lingüística cognitiva
(representada por autores como George Lakoff y Ronald Langacker) sostiene que el
lenguaje está profundamente ligado a la forma en que conceptualizamos el mundo.

Algunos principios clave de la lingüística cognitiva son:

El lenguaje es una extensión del pensamiento humano: No es solo un sistema arbitrario de


signos, sino que refleja la manera en que percibimos y organizamos la realidad.
La metáfora conceptual: Lakoff muestra que las metáforas no son solo figuras retóricas, sino
que estructuran nuestra forma de pensar. Por ejemplo, expresiones como "el tiempo es
dinero" revelan cómo conceptualizamos el tiempo en términos económicos.
La gramática como red de significados: Langacker propone que la estructura gramatical no
es solo una serie de reglas formales, sino un sistema basado en patrones de significado y
experiencia.
La lingüística cognitiva ha influido en el desarrollo de la inteligencia artificial y en la
comprensión del procesamiento mental del lenguaje.

Neurociencias y lingüística computacional: El futuro del lenguaje


En los últimos años, la intersección entre la lingüística, la neurociencia y la informática ha
dado lugar a nuevas áreas de estudio, como la lingüística computacional y el procesamiento
del lenguaje natural (PLN).

Neurociencias del lenguaje: Se utilizan técnicas como la resonancia magnética funcional


(fMRI) y los estudios de neuroimagen para analizar cómo el cerebro procesa el lenguaje.
Investigaciones en este campo han identificado regiones clave como el área de Broca
(relacionada con la producción del habla) y el área de Wernicke (asociada con la
comprensión).
Procesamiento del lenguaje natural (PLN): La inteligencia artificial y el machine learning han
permitido avances en el análisis automatizado del lenguaje, con aplicaciones como los
asistentes virtuales, la traducción automática y la detección de patrones en grandes
volúmenes de texto.
Modelos de lenguaje basados en redes neuronales: Algoritmos como GPT (Generative Pre-
trained Transformer) han revolucionado la manera en que las máquinas pueden comprender
y generar texto de forma autónoma, acercándose cada vez más al procesamiento humano
del lenguaje.
Conclusión
La lingüística contemporánea ya no se limita a describir las estructuras del lenguaje, sino
que explora cómo el lenguaje se relaciona con la identidad, el pensamiento y la tecnología.
La teoría de la enunciación abrió el camino para entender el lenguaje como un acto de
construcción de significado, mientras que la lingüística cognitiva y las neurociencias han
ampliado nuestra comprensión de cómo el lenguaje emerge y evoluciona en la mente
humana y en la sociedad.

1. Fonética y fonología estructuralista (Escuela de Praga, Jakobson, Trubetzkoy)


Son clave para la evaluación y tratamiento de trastornos del habla (dislalias, disartrias,
apraxia del habla).
Introducen los conceptos de oposiciones fonológicas y rasgos distintivos, esenciales para
entender los errores fonológicos en niños con dificultades del habla.
Roman Jakobson estudió cómo los niños adquieren los fonemas y qué fonemas suelen
perder en patologías del habla.

2. Distribucionalismo norteamericano (Bloomfield, Harris)


Su método empírico y basado en el análisis de datos lingüísticos influye en la descripción de
patrones en el habla patológica.
Aporta herramientas para analizar la distribución de los sonidos en el habla típica y atípica,
útil en la evaluación clínica.

3. Generativismo (Chomsky, teoría de la gramática universal)


Plantea que el lenguaje es innato, influyendo en estudios sobre trastornos del desarrollo del
lenguaje, como el trastorno del lenguaje (TDL) y el autismo.
Se aplica en la investigación sobre déficits en la competencia lingüística en niños con
trastornos del lenguaje.
Es útil en el diseño de pruebas para evaluar si un problema es de base lingüística o motora.

4. Neurociencias y psicolingüística (Luria, Damasio, Levelt)


Relacionan el lenguaje con la función cerebral, clave para la fonoaudiología neurológica
(afasias, disartrias, apraxias).
Investigaciones sobre la percepción y producción del habla ayudan a entender dificultades
auditivas y de procesamiento del lenguaje.
Willem Levelt propone el modelo de producción del habla, usado en terapias de
rehabilitación del habla.

5. Sociolingüística y pragmática (Labov, Hymes, Grice)


Analizan la variabilidad del lenguaje en diferentes contextos, útil en la evaluación de
pacientes bilingües o con diferencias dialectales.
La pragmática estudia la intención comunicativa, clave para trastornos como el autismo y la
afasia pragmática.

6. Análisis del discurso y lingüística cognitiva (Van Dijk, Lakoff)


Son relevantes en la evaluación de la coherencia y cohesión del discurso en pacientes con
daño cerebral, afasias y trastornos del desarrollo.
La lingüística cognitiva ayuda a comprender la relación entre lenguaje, cognición y memoria,
útil en la evaluación de demencias y enfermedades neurodegenerativas.

-.-
Los conceptos de sujeto, predicado, núcleo y objeto directo pertenecen a la gramática
tradicional y fueron desarrollados dentro de la sintaxis estructural desde la antigüedad hasta
la lingüística estructuralista del siglo XX.

Gramática tradicional (Grecia y Roma): Aristóteles y los gramáticos latinos como Prisciano
establecieron las primeras categorías sintácticas, incluyendo sujeto y predicado.
Gramática escolar y normativa (siglos XVII-XIX): Influenciada por la lógica filosófica y la
gramática general y racional (Port-Royal), formaliza reglas sobre el análisis sintáctico.
Estructuralismo (siglo XX, especialmente Bloomfield y el distribucionalismo): Aunque se
centra en la estructura formal de la lengua sin significado, sigue utilizando categorías
sintácticas como sujeto, predicado y objeto, pero con un enfoque más descriptivo y basado
en la distribución de los elementos en la oración.
El análisis sintáctico tradicional, que separa las oraciones en estos términos, sigue siendo
parte de la enseñanza básica de la gramática, aunque en la lingüística moderna han surgido
enfoques más formales, como la gramática generativa de Chomsky, que reformula el
concepto de estructura sintáctica en términos de reglas y transformaciones.
-.-

También podría gustarte