Está en la página 1de 44

Algunas notas sobre fases

Diego Krivochen, University of Reading.

e-mail: diegokrivochen@hotmail.com

Introducción:

La noción de economía es fundamental en tanto rectora de todos los procesos cognitivos. En la Facultad del
Lenguaje, desde la perspectiva minimalista, economía es eliminación de: (a) elementos superfluos de las
representaciones y (b) pasos superfluos en las derivaciones, es decir, eliminación de todos aquellos elementos
que aumenten la complejidad computacional sin estar estrictamente motivados por requerimientos de interfaz. La
búsqueda de mecanismos derivacionales menos costosos computacionalmente ha llevado, a lo largo de la
historia de la Gramática Generativa, a proponer diferentes maneras de establecer un ámbito derivacional
restringido (i.e, local) para la aplicación de operaciones sintácticas. En este trabajo hacemos una revisión crítica
de las concepciones principales sobre el concepto de fase (y conceptos afines y derivados), la restricción de
localidad más importante en el PM. Luego de presentar los enfoques, y ventajas y desventajas de cada uno,
propondremos una teoría de las fases aplicable a todos los módulos mentales que intenta eliminar la mayor
cantidad posible de estipulaciones, persiguiendo un modelo “más minimalista”.

Parte I: revisión de las propuestas vigentes

a) Chomsky (1998 “Minimalist Inquiries: The Framework”, 2001 “Derivation by Phase”, 2004
“Beyond Explanatory Adequacy”, 2005 “On Phases”, 2007 “Approaching UG from Below”)

El concepto de fase se presenta por primera vez como tal en Chomsky (1998: 19 y ss.) como una forma de
reducir la complejidad computacional de las derivaciones y establecer condiciones de localidad para las
operaciones. Si la selección-de-una-vez de una Ordenación Léxica a partir de un lexicón implica que el sistema
computacional no debe acceder al lexicón en cada punto de la derivación (con la consiguiente reducción del
costo computacional), la complejidad se vería reducida aún más “(…) with each stage of the derivation accesing
only part of the LA [OL].”, siendo que cada “parte” de la OL determinaría un “objeto sintáctico natural” con
propiedades relevantes para las interfaces. (Chomsky, 1998: 20).

1
El concepto de fase le debe mucho a la noción de barrera1 (Chomsky, 1986), que establecía condiciones de
localidad (junto con principios como Minimalidad o Subyacencia) en el modelo GB de los años ‘80.

Comenzaremos presentando las definiciones con las que Chomsky ha trabajado en diferentes trabajos:

MI/ DbP: subconjuntos de la Ordenación Léxica seleccionados por C(HL), relativamente independientes en
términos de las propiedades de interfaz (FF y FL). En términos de FL, la fase es una forma proposicional que
puede constar de una v(*)P con todos los roles-θ asignados, o una CP con fuerza (ilocucionaria); en términos de
FF, tiene propiedades tonales propias. Representaría una reducción de la carga computacional, ya que se
mantienen menos elementos en la memoria activa. Una vez que el subconjunto con el que se trabaja se ha
agotado, el sistema computacional transfiere el dominio del núcleo de fase (el cual pasa a ser inerte), se borran
(delete) los rasgos no interpretables por FL (aunque permanecen en FF), se selecciona otro subconjunto léxico, y
la derivación procede.

OP/ AUG: Objetos sintácticos, formados mediante Merge, a los que se aplican las operaciones de Transferencia
a las interfaces (Spell-Out sería la transferencia a FF). La fase es el locus en el que se dan las operaciones de
cotejo, y establece un fuerte sentido de localidad: tanto el backtracking como el look ahead están prohibidos. La
computación trabaja únicamente con la información disponible en el nivel de fase, de modo tal que una fase se
construye sin prestar atención a la anterior (ver nota 26). Óptimamente, habría una sola operación de
transferencia, por lo que las fases serían idénticas en ambas interfaces. En las concepciones más recientes, la
motivación en las interfaces es una consecuencia de la condición de fase, ya que éstas se definen de acuerdo a
las posibilidades de cotejo de rasgos no interpretables. Las fases establecen dominios de aplicación de
operaciones y visibilidad, a partir de la llamada “Condición de Impenetrabilidad de Fase”, cuya formulación ha
variado en diferentes trabajos, dependiendo del elemento que define la Transferencia: bien el núcleo de fase
pertinente o el siguiente núcleo de fase:

1) Condición de Impenetrabilidad de Fase (CIF):

Versión 1: (Chomsky, 1998: 108)

“en una fase α con un núcleo H, el dominio de H no es accesible a operaciones fuera de α, sólo H y su
periferia [especificador/es]”

Versión 2: (Chomsky, 1999: 29)

“el dominio de H [un núcleo de fase] no es accesible a operaciones en ZP [el siguiente núcleo fuerte], sólo H
y su periferia”.

1
Para una comparación crítica entre las nociones de fase y barrera, ver Boeckx y Grohmann (2004, 2005).

2
La diferencia fundamental es que la segunda formulación de la CIF permite que un núcleo no-fase pueda
efectuar operaciones en el dominio de su complemento fase. Así, por ejemplo, T puede cotejar caso Nominativo
con el complemento de VP (que está a su vez dentro del dominio de la fase v*P) en las construcciones de “Caso
Caprichoso” (Quirky Case), en las que el rasgo EPP en T es satisfecho por un elemento con caso Dativo. Si T
puede cotejar rasgos con el complemento de un núcleo de fase, entonces quiere decir que este complemento no
se ha transferido, porque si lo hubiera hecho, sería inerte a los efectos de cualquier tipo de operación. La
transferencia del complemento de H, entonces, se retrasa hasta el ensamble del núcleo de ZP, y cualquier
proyección que se encuentre en el medio puede efectuar operaciones en el complemento de H. En la primera
versión de la CIF, la transferencia se da no bien el núcleo de fase se ensambla y los elementos que tengan rasgos
que cotejar se han movido a su periferia.

Las fases serían endocéntricas: núcleos de fase (fuertes) son v(*), el verbo liviano de las construcciones
transitivas y C. Los núcleos débiles (que, a los efectos de C(HL) es como si no fueran núcleos de fase) serían V
(v), el verbo léxico de las construcciones inacusativas, D (MI) y se deja abierto el panorama para A y P. Así, la
estructura de una fase sería la siguiente (tomado de Chomsky, 2007: 15): {P, XP}, siendo P el núcleo de la fase y
XP una proyección léxica (V o T, aparentemente. Tal vez, N) que hereda los rasgos-φ de P.

Veamos algunas propiedades de los núcleos fuertes:

 Son sondas para el cotejo/movimiento, teniendo acceso hasta el núcleo de la fase anterior (la derivación
se da bottom-up). Las posiciones-A´ se definen, entonces, como las resultantes de la atracción a Spec-H
motivada del EF del núcleo de fase correspondiente (C, v). El objeto atraído es siempre el más cercano
en el dominio del núcleo (efectos de superioridad, CEM).

 Seleccionan una CL como complemento, la que “hereda” sus rasgos-φ2. Así, T heredaría los rasgos-φ de
C, y V, de v*. Las CCLL que no están seleccionadas por un núcleo fuerte serían defectivas (TPs pasivas,
ECM, de ascenso (seleccionadas por V), VPs inacusativas (seleccionadas por T)), por tener un set
incompleto de rasgos-φ (aparentemente, sólo persona) y carecer de EPP-feature (Chomsky, 2001: 15.
Ver, no obstante, Chomsky, 1998: 26, “el PPE-rasgo de T podría ser universal. Para los NUs de fase v
y C, varía paramétricamente (…)”).

Los casos posibles son los siguientes:

a) [V [TPdef]] (ECM, pasivas, ascenso)

2
Gallego (2010) prefiere hablar de feature sharing en lugar de feature inheritance, por lo que los rasgos se mantendrían en
el núcleo de fase además de pasar a la CL que seleccionan como complemento. El concepto surge de Ouali (2008), quien
distingue sharing, keeping y giving.

3
b) [T [VPdef]] (construcciones inacusativas)

c) [C [TPfull]] (control, cláusulas matrices)

d) [v* [VPfull]] (estructuras transitivas)

 Determinan la ocurrencia de efectos de reconstrucción cuando hay movimiento.

 Tienen un Edge-feature no interpretable-no borrable, que permite el ensamble ilimitado de objetos a


la periferia. Así, un objeto puede “escapar” de una fase mediante el ensamble a la periferia de H como
un especificador extra, quedando fuera del dominio del núcleo (y, por tanto, de la PIC).

 Como todas las CCFF, tienen rasgos semánticos interpretables: v, agentividad-causatividad; C, fuerza
ilocucionaria, modalidad oracional.

El ascenso de sujeto a Spec-T estaría dado por los rasgos de C, que actúan como sonda. Así, C tiene dos sondas:
(a) su Edge Feature (aparentemente, junto con un wh- feature) que atrae un wh- a Spec-CP, y (b) sus rasgos-φ,
que T hereda, y que provocan el cotejo de Caso de la DP sujeto. El ascenso de Spec-vP a Spec-TP estaría dado
por la necesidad de satisfacer el rasgo EPP en T, aparentemente, también heredado de C (ejemplo (a)). Con v,
ocurriría lo mismo, tendría dos sondas: (a) su rasgo [Tr.] (que busca una DP en su dominio que tenga un rasgo
de Caso no valuado) y (b) sus rasgos-φ, que V hereda. v también provocaría el ascenso del sujeto de una cláusula
ECM a Spec-VP, mediante el rasgo EPP que V heredaría (ejemplo (b)). Hemos omitido en los diagramas
arbóreos detalles no pertinentes para la presente argumentación, como el movimiento de T a C:

4
2)

a) CP b)
vP
Wh C´ DP v`
C TP v VP
[u-Wh]
[Tr.]
DPi T´ DPi V´
[φ-features] [φ-features]
P
[EPP] T vP [EPP] V TP (ECM)
Multiple
Specs.
Wh v´
DPi Tdef
DPi v´
v
VP
[EF]

V Wh

Ej: What did she buy? Ej: I saw her crossing the street.

Se ve que el argumento de las fases proposicionales se basa en gran medida en encontrar paralelismos entre los
dos núcleos de fase. Si hay otros núcleos de fase (D, A, P, por ejemplo), éstos se determinan estableciendo
similitudes con los núcleos ya propuestos, en palabras de Chomsky, “Similarities between CP and DP suggest
that DP too may be a phase (…)” (Chomsky, 2005: 10)3

Argumentos contra T como fase4:

Hay que tener en cuenta que T/I es considerada una proyección “anómala” desde Chomsky (1986). En el modelo
de Barreras, IP era una categoría bloqueante, siguiendo la siguiente definición:

3) α es una CB para β ssi α no está marcada-L [i.e. no hay un núcleo léxico que le asigne Caso o rol-θ] y
domina a β.

Así, A es barrera para B ssi:

3
No obstante, Chomsky (2007) propone que las estructuras nominales son n(*)Ps, así como las verbales son v(*)Ps. Así, D
heredaría sus rasgos-φ de n(*), que sería por consiguiente núcleo de fase, de manera idéntica a como V hereda los rasgos-φ
de v*. La consecuencia es que, si los núcleos de fase seleccionan una CL (con la que formarían una “proyección extendida”
–Cf. Grimshaw (2003)-, entonces D pasaría a ser una CL, contra lo que hay, creemos, suficiente evidencia. Ver Krivochen
(2010).
4
Ver, sin embargo, Gallego (2007, 2010), Gallego y Uriagereka (2006)

5
4)

a) A domina a la CB para B

b) A es una CB para B y A≠Infl

Por (4a), CP es Barrera para VP por dominar a IP, CB para V, mientras que por (4b), una PP o AdvP adjuntos lo
son para sus complementos. Si tomamos la Split-VP Hypothesis, vP sería barrera para VP por (b), ya que no está
marcada-l (I/T no es un predicado léxico).

La condición especial de T/I se mantiene en el planteo de fases, al considerar que T no es un núcleo de fase
fuerte, pero C sí lo es.

 T no tiene rasgos-φ propios, sino heredados de (o “compartidos con”) C. El ascenso del sujeto a Spec-TP
estaría coordinado también por C, y no por un [EPP feature] inherente a T.

 Si bien los rasgos de [Tiempo] serían inherentes a T (para evitar que T sea meramente una Agr-
projection), éstos recibirían una interpretación “residual” (Chomsky, 2007: 14) a menos que estén
seleccionados por C ([Tdef], ver supra). No queda claro, no obstante, qué es exactamente una
“interpretación residual”.

 Si T fuera fase, entonces su complemento (vP o VP) se transferiría, incluyendo a la DP “sujeto”. Esta DP
tendría rasgos no interpretables no valuados (Caso), y la derivación colapsaría. T, además, mantendría
rasgos-φ no valuados (inherentes a T, no ya heredados de C), con lo que habría colapso también al nivel
de la fase siguiente (Chomsky, 2007: 13).

 En una estructura como:

5) [CP What [C did] [TP you [T t] [vP what [v´ you [v bring] [VP [V bring] what]]]]]?

El objeto debe moverse a Spec-vP para poder salir de la fase, ya que queda un rasgo [wh-] no
interpretable por cotejar. Siendo que una sonda atrae a la meta más cercana en su dominio, si T fuera la
sonda, entonces tendría que atraer a [what] a su Spec-, y no a [you]. C, con sus dos sondas, coordina los
movimientos, el wh- va a Spec-CP y [you] se ensambla en Spec-TP (Chomsky, 2005a: 18-19).

Derivaciones paralelas:

La noción de derivación paralela, introducida en Chomsky (1998), es esencial en el planteo tradicional de


localidad por impenetrabilidad, ya que se asume que lo que se deriva en paralelo a α es inaccesible para
cualquier sonda contenida en α (de lo cual se deriva la Condición sobre los Dominios de Extracción),

6
particularmente si α es un núcleo de fase (ver Müller, 2011 para más detalles). Las derivaciones paralelas, a
partir de subconjuntos léxicos (sub-arrays), serían necesarias en el caso de los adjuntos (incluyendo las
cláusulas relativas, adjuntas a NP o DP) y las cláusulas mínimas (small clauses) (Chomsky, 1998: 28 nota 55).
La inserción de la estructura derivada en paralelo se daría por medio de una transformación generalizada, que
inserta un marcador de frase en otro (Ver Chomsky, 1965).

Problemas del enfoque Chomskyano (Boeckx y Grohmann (2004, 2005); Epstein y Seeley (2002),
objeciones propias):

 ¿Cómo sabe Spell-Out que vP y CP son los objetos relativamente independientes en términos de interfaz
(es decir, fases) si no tiene acceso a las interfaces, siendo una mera operación?

 vP no siempre es “proposicional” (puede contener cuantificadores vacuos o variables), asimismo, hay


unidades que no son vP ni CP y son “proposicionales” (en términos de una relación lógica predicado-
argumento), como las small clauses.

 Si las fases son el objeto que se transfiere, como sostiene Chomsky, entonces no puede ser que se envíe a
las interfaces el complemento del núcleo de fase, ya que se transferirían non-phasal objects.

 Raising/passive TP, Unaccusative VP: hay asignación temática, ¿por qué no son núcleos fuertes? ¿Qué
pasa con v en las construcciones inergativas?5

 ¿El backtracking está restringido porque la PIC se aplica en “ambos sentidos” (es decir, bottom-up y top-
down)? Entonces, sería conceptualmente posible que una vP (inacusativa / pasiva) pueda mirar atrás a
una VP (o incluso que una TP tenga acceso al complemento de VP), por ejemplo, ya que en Chomsky
(1999 en adelante) se restringe la CIF a los núcleos de fase fuertes. Un caso conflictivo sería una
estructura de ECM con un verbo inacusativo subordinado (ej: [CP [TP I expect [TP them to [vP come t]]]]),
donde lo anterior implicaría que T en la cláusula matriz puede acceder hasta la VP subordinada, lo cual
parece ir en contra de los requerimientos de localidad estricta.

5
Aparentemente, Chomsky tendría en mente el modelo de Morfología Distribuida (Halle y Marantz, 1993, Marantz, 1997,
Fábregas, 2005, Marantz, 2006) en el cual las categorías son de la forma [X [√ROOT]], en la que X es un licenciador (a, n,
v) que determina la categoría de una raíz a priori a-categorial. Toda VP sería, entonces, una [vP [VP]] en la que V “sube” a
v (por naturaleza, afijal), pero no toda v es transitiva y no toda vP es fase. Por eso, la diferenciación entre v y v*: el primero
sería el licenciador funcional, con “rasgos categoriales”, el segundo tendría rasgos de transitividad que cotejan caso
Acusativo con la DP más cercana en su dominio de mando-c. Ver especialmente Chomsky, 2005: 15 y 2007: 12. No
obstante, la asimetría no queda clara, ¿por qué es la transitividad lo que determina la presencia de una fase? Al respecto, ver
Marantz (2006) y Panagiotidis (2008, 2010)

7
 ECM TPs, small clauses, Passive TPs, etc. pueden ser unidades tonales autónomas, sin embargo, no son
fases fuertes.

 ¿Por qué el mismo objeto debe ser legible en las dos interfaces simultáneamente? Es decir, no hay nada
a priori que restrinja un Spell-Out “desparejo”, en el que lo que se transfiere a una interfaz no
necesariamente debe corresponder con un objeto legible en la otra, si los sistemas de actuación no están
conectados entre sí. La identidad de las fases en FF y FL es estipulativa, si bien parecería la opción
óptima.

 La segunda propiedad de los núcleos fuertes (seleccionar una CL) tiene la consecuencia indeseable de
que T pasaría a ser una CL, lo cual es afirmado explícitamente por Chomsky (2001). Dado su carácter
básicamente procedimental (Ver Escandell y Leonetti, 2000, Leonetti y Escandell, 2004, Krivochen,
2010, 2012), creemos esencial mantener a T como CF.

 A nivel de fase, los rasgos se borran para FL (DbP), pero si es así, no están presentes en ninguna
interfaz. La noción de transferencia, más reciente, parece sin embargo neutralizar la objeción. Ver
Epstein y Seely (2002) para un desarrollo de la objeción al planteo de borrado, y Kitahara (1997) para
una defensa del planteo de borrado como reemplazo.

 Las estructuras que se ensamblan en la matriz desde una derivación paralela tienen, de acuerdo con
Chomsky (1998: 55) sus propios subconjuntos léxicos (cláusulas mínimas, adjuntos, especificadores –
ver Uriagereka, 1999-). ¿Por qué no se los considera fases (al menos, explícitamente)?

 ¿Por qué las cláusulas mínimas requieren una derivación paralela? Si el Spec- de la cláusula debe
recibir caso de la sonda v(*), ¿en qué punto de la derivación debe ensamblarse la CM para que se efectúe
este cotejo?

 La segunda formulación de la CIF implica que, en una oración transitiva, el dominio de v*P no se
transfiere hasta el ensamble de C, en cuyo caso, la condición de fase de v*P es totalmente irrelevante, de
hecho, se comportaría casi como un núcleo débil (Chomsky, 1999) ya que no sería el locus de
transferencia, sólo de cotejo.

Una alternativa dentro del marco Chomskyano: Gallego (2010 “Phase Theory”):

Ubicamos la propuesta de Gallego (2010) como dentro del marco Chomskyano porque asume como
válidos algunos de los pilares del modelo, como el concepto de fase como el locus de la valuación de rasgos, la
existencia de núcleos de fase y la identidad de esos núcleos (v* y C), y la herencia (en términos de “sharing”) de
8
rasgos entre el núcleo de fase y su complemento. La primera asunción es explicitada en la llamada Phase
Condition (Gallego, 2010: 77):

6) Uninterpretable features (uFF) signal phase boundaries

La identidad de los núcleos de fase se deriva del hecho de que son los que en realidad tienen los rasgos-φ y, de
acuerdo con Gallego, un rasgo [TENSE]6. C tiene los rasgos de T y rasgos-φ por lo que, como dijimos más arriba,
T sin C es Tdef, recibe una “interpretación residual”. Aparentemente, v* también tendría un rasgo T junto con un
complejo de rasgos-φ, ya que el Caso Acusativo es también una forma de T: siguiendo a Pesetsky y Torrego
(2004), el Caso es un [uT] en DP, y se valúa siempre en relación local con un nodo T, sea TS para Nominativo o
TO para Acusativo (Objetivo en inglés, ya que no hay diferencia morfológica con el Dativo). TS hereda los rasgos
de C, y TO, de v*. La estructura de la cláusula quedaría, entonces (omitiendo proyecciones intermedias y la TO,
irrelevante para la argumentación que sigue):

7) [CP C[T] [φ] [TP TS [T:NOM] [u-φ] [v*P EA[u-T][φ] v*[T] [u-φ] [VP V IA]]]]

La variación fundamental en la estructura de la cláusula es el movimiento o no de V (v) a T, que ocurre en


español pero no en inglés. Aparentemente, la variación depende de si v tiene o no rasgos de T. Gallego defiende
esta postura a partir de las propuestas de Lasnik (1999) y Solà (1996). De acuerdo con Lasnik, sólo los verbos
ingleses be y have están totalmente flexionados en el Lexicón, mientras que el resto de los verbos son bare
forms. Por el contrario, los verbos del español estarían todos totalmente flexionados en el Lexicón. Esta
asimetría se combina con la observación de Solà sobre las llamadas “multicategorial words”, elementos léxicos
que contienen morfemas de “distinta categoría”. Así, una palabra como [cantaremos] será multicategorial, ya que
contiene, de acuerdo con Gallego, morfemas verbales (la raíz), temporales (-re) y nominales (-mos). Según Solà,
una copia del elemento léxico multcategorial debe insertarse en cada nodo del cual contiene rasgos, así, los
verbos españoles, por contener morfemas temporales, se insertarían en V y en T, para que luego se materialice la
copia más alta (la que quede en T, si no hay movimiento a C). Los verbos ingleses, por el contrario, no
contendrían morfemas temporales, serían todos “bare forms”7. Como consecuencia, no habría inserción de una
copia en T, el V queda “in situ”, V0. En realidad, entonces, no hablamos de movimiento, sino de Construal,
inserción léxica y borrado de las copias más bajas.

6
La motivación en las interfaces sería más una consecuencia que una causa de la condición de fase (Chomsky,
comunicación personal con Ángel Gallego en Gallego, 2010: 54), que estaría determinada totalmente por cuestiones de
reducción de la complejidad computacional.
7
Formas como [love-s], que parece contener un morfema nominal son analizadas como si el morfema tuviera sólo rasgos de
número, no de persona, por lo cual habría cierta defectividad. Con formas como [lov-ed], el argumento es diferente:
aparentemente, serían formas participiales, sólo con un morfema de Aspecto (ver Gallego, 2010: 101).

9
Gallego asume que C, T y v* en lenguas como el español comparten un rasgo [TENSE], supuesto fundamental
para su argumentación. El mecanismo funcionaría de la siguiente manera: C debe valuar su rasgo [TENSE] con
v* como objetivo (donde está el V, atraído por el verbo liviano afijal), pero T actúa como rector potencial para v*
más cercano que C, por lo que la operación violaría Minimalidad. Por lo tanto, v* se mueve a T, proyectando un
marcador de frase “híbrido” v*-TSP que valúa T en C. Incidentalmente, esta operación redefine los límites de la
fase v*P por una suerte de “upstairs inheritance” (Gallego, 2010: 108) de la siguiente manera: toda la
proyección v*-TSP pasa a ser fase, lo que equivale a decir que en las lenguas en las que hay movimiento de v(*)
a T, TP se comporta como una fase fuerte, por lo que la cantidad de material transferida es mayor, no sólo VP
sino toda la v*P. El proceso se denomina Phase Sliding, y se ilustra de la siguiente forma (adaptado de Gallego,
2010: 108):

8)

Edge
TSP v*-TSP

EA TS´ EA v*TS´
Edge
TS v*P v*-TS v*P Complement

Phase
EA v* EA v*´
Sliding
Complement
v* VP v* VP

Una vez movido v*, el problema de Minimalidad queda resuelto, ya que no hay rector potencial entre C y v*, y C
puede valuar su rasgo [TENSE].

Dado que las fases se construyen a partir de distintas LA, queda la pregunta de a qué LA pertenece T S, si a la de
C o a la de v*. Dados los efectos de Phase Sliding, Gallego sostiene que T pertenece a la LA de v*. La
conclusión, entonces, es que la cualidad de fase de TP depende de un parámetro, crucialmente, el que establece
el movimiento de v* a T en la sintaxis, y que depende de que v* tenga rasgos de [TENSE].

Problemas:

Los problemas que encontramos en la propuesta de Gallego son, en parte, los mismos que encontramos en la
postura chomskyana. La crítica a la determinación de los núcleos de fase C y v* se mantiene. Creemos que
ubicar rasgos [T] en C, T y v* es estipulativo, ya que reduciría a T casi a una proyección de concordancia cuando
es “defectiva”, por lo que su motivación en las interfaces (y su valor procedimental) quedaría en duda. Además,
encontramos un problema con las consecuencias de Phase Sliding para la materialización. Si aceptamos el

10
Earliness Principle de Pesetsky (1995), las operaciones deben aplicarse tan pronto como sea posible. El mismo
Chomsky sostiene en un primer momento de la teoría (MI) que el complemento de un núcleo de fase es
transferido no bien se ensambla el núcleo pertinente, para respetar una estricta localidad y evitar de esta manera
tanto el look ahead como el backtracking. En la propuesta de Gallego, la redefinición de la fase v*P implica
esperar hasta el movimiento de v* a TS para efectuar la transferencia, lo cual consideramos estipulativo: el
sistema debe “saber” de alguna forma que se ensamblará TS cuando ha terminado el ensamble de v*P para
retrasar la transferencia, lo cual implica que C(HL) debe tener en cuenta un elemento que, en el punto de la
derivación en el que estamos, aún no ha sido introducido. No hay razón a priori para que VP no pueda
transferirse una vez ensamblado v*, que sería lo esperable. Otra opción implica apartarnos de la optimidad, lo
que requiere fundamentación teórica y empírica.

La proyección de un “marcador de frase híbrido” v*-TSP entra en conflicto con nuestra visión de labeling, como
se verá más abajo. Tenemos dos categorías funcionales / procedimentales (v* y T), por lo que, desde nuestra
teoría, el etiquetado a los fines de la explicatura sería imposible ya que no existe la relación de alcance (scope)
entre CP y CL y la consecuente restricción de la referencia (eventiva tanto como nominal) que hace a la
construcción legible para C-I. La FL (en términos de TR) generada siguiendo la propuesta de Gallego colapsaría
a nivel de la explicatura.

Gallego hace uso de dos proyecciones, TS y TO, extraídas de los trabajos de Pesetsky y Torrego. Estas
proyecciones, a menos que estén dominadas inmediatamente por los núcleos de fase C y v*, serían defectivas
(por lo que recibirían, según Chomsky, una “interpretación residual”. Ver supra.), y de por sí no contarían con
rasgos interpretables, que serían heredados de los núcleos de fase. Consideramos que, ya que no hay rasgos
interpretables en juego ([Tense] sería un rasgo de C, no de T, siguiendo la hipótesis más fuerte) en estos nodos,
TS y TO son equivalentes a las proyecciones de concordancia (“Agr-projections”) AgrS y AgrO del GB tardío, y
que fueron eliminadas en Chomsky (1995) por no ser más que receptáculos de rasgos-φ para el cotejo de Caso en
relación Spec-Head sin interpretación en las interfaces. En el PM, todo elemento presente en una representación
debe estar motivado por requerimientos de interfaz, y la expresión debe ser totalmente legible para los sistemas
llamados “externos” a la Facultad del Lenguaje en sentido estricto (C-I y A-P). Creemos que estas dos
proyecciones, TS y TO, no cumplen con los requerimientos del minimalismo sustantivo, por lo que deben ser
asimismo eliminadas.

b) Uriagereka (1998 “Piez y Cabeza”, 1999/2002 “Multiple Spell-Out”)

La idea de aplicar la operación Materialización de manera cíclica (Materialización Múltiple) aparece en


Uriegereka (1998: 336 y ss.) en la forma de la regla:

11
9) Dada una estructura {α {α, β}}, α puede linealizarse.

Tal regla implicaba que, una vez generado un cierto tipo de estructura (una “unidad de comando”, ver infra), ésta
puede enviarse a las interfaces si y sólo si el resultado de tal operación es la convergencia. El “cuándo” de
Spell-Out está determinado por las condiciones de legibilidad de las interfaces: si un elemento que contiene
rasgos no interpretables es enviado a las interfaces, entonces Spell-Out se habrá aplicado “demasiado pronto”.
En términos de Uriagereka, “(…) Materialización se aplicará siempre que haya convergencia.” (1998: 340).

Multiple Spell-Out (Uriagereka, 1999) representa un refinamiento y explicitación del modelo esbozado en
Uriagereka (1998). La noción de unidad de comando (“command unit”) cobra vital importancia, y se define
como sigue:

Command unit: resultado de la aplicación continua de Merge a un objeto α, que proyecta. Puede linealizarse
mediante el Axioma de Correspondencia Lineal (ACL, ver Kayne, 1994), ya que no hay puntos de simetría.

10)
α

β α

α γ

Non-command unit: resultado del ensamble de dos objetos generados separadamente (ej. Ensamble de
especificadores o adjuntos). No puede linealizarse, ya que se genera un punto de simetría, mando-c mutuo entre
dos XPs.

11)

α γ

α β γ δ

 Materialización se aplica a command units, óptimamente, sólo una. El acceso a FF es en “cascadas


derivacionales”. Cuando aparece una non-command unit formada por command units, se materializa
cada una por separado, evitando la simetría.

Las CU serían los “dominios naturales” para los fenómenos de FF y FL (como las fases chomskyanas), ya que
son las unidades que llegan a las interfaces en cada “cascada derivacional”.

12
Las asimetrías entre complementos y adjuntos / especificadores en términos de posibilidad de extracción de
constituyentes se siguen del sistema derivacional directamente, y se definen a partir de la noción de Command
Unit, a su vez fundada en Merge y c-command.

Complementos: igual CU que el núcleo, por lo tanto, se materializan en la misma “cascada derivacional”, y la
extracción de elementos de su interior está permitida en la medida en que el atractor también pertenezca a la CU
en juego.

Especificadores/Adjuntos: se materializan antes que el núcleo de la CU, el procesamiento es top-down (a


diferencia del enfoque Chomskyano, tradicionalmente bottom-up). La extracción está vedada ya que un elemento
transferido es inerte para futuras operaciones.

Veamos un ejemplo:

12)

“cascada” I γ α
“cascada” II
γ δ α β

β φ

La operación Move-α se analiza por pasos derivacionales que toman como primitivo la noción de CU.
Movimiento se aplica por CU.

1. Copiar una de dos CU ensambladas separada y paralelamente.

2. Materializar la copia más baja como trace.

3. Ensamblar la trace a la estructura principal.

4. Ensamblar la copia más alta a la periferia de la probe.

El movimiento requiere, entonces, que el espacio de trabajo mantenga elementos en derivaciones paralelas,
ensamblando luego las distintas “partes” por transformaciones generalizadas. Según Uriagereka, los espacios
derivacionales paralelos son una necesidad (Uriagereka, 1999: 121): en la derivación de [saw the man saw a

13
woman], [the the man] y [saw saw [a a woman]] se generan separadamente, y luego se ensamblan externamente por
sustitución8. La derivación procedería como sigue:

13) saw

CU 1, ensamblada en the saw


espacio derivacional α. CU 2, ensamblada en
a espacio derivacional β.
“Cascada” I the man saw
“Cascada” II
a woman

Si la derivación ocurriera sólo en un espacio, entonces [the] y [man] se ensamblarían a [saw a woman]
secuencialmente, y no como un constituyente armado. Es decir, si suponemos que de todas formas [saw]
proyectaría frase, el marcador final sería: *[saw the [saw man [saw saw [a a woman]]]].

Ventajas:

 Se eliminan las estipulaciones con respecto a los núcleos de fase, la Materialización está determinada por
la convergencia (sobre todo en la primera formulación de Materialización Múltiple).

 La noción de command unit parece seguirse de las propiedades de Merge, no resulta tan estipulativa
como concepto básico. Kayne y Chomsky, independientemente, habían llegado a la misma conclusión
sobre las asimetrías entre Compl. y Specs./Adjuntos, pero sus resultados no parecen satisfactorios9.

Problemas:

 No se toma en cuenta el cotejo de rasgos en las CU, y no queda claro por qué la noción de command unit
(definida en base a c-command, una relación puramente sintáctica) sería relevante para las interfaces en
términos de convergencia. La CU sería el locus de las operaciones, con lo que la definición de fase se
asemeja a la de Chomsky (2005, 2007).

8
Nunes (1995, 2004) analiza los huecos parasíticos (parasitic gaps) utilizando un mecanismo derivacional muy parecido al
de Uriagereka. Su propuesta tiene las mismas ventajas y desventajas.
9
Kayne, en el marco del ACL, sostiene que los especificadores son sintagmas adjuntos para evitar la violación de
antisimetría que se genera entre el núcleo del Spec- y el núcleo de la proyección a la que se adjunta, ya que se mandarían-c
de manera asimétrica mutuamente. Kayne modifica la definición de c-command para restringirla a terminales, no a
segmentos, de modo tal que un segmento (como una proyección intermedia) no puede entrar en relación de c-command con
un núcleo.

14
 El análisis de Movimiento es muy complejo, requiriendo derivaciones paralelas sin estar debidamente
justificadas conceptual y empíricamente. Un problema, por ejemplo, es la ausencia de restricciones sobre
el número de derivaciones paralelas posibles. Aparentemente, tanto argumentos como adjuntos se
generarían en espacios derivacionales paralelos, por lo que la asimetría entre Compl. y Specs. / Adjuntos
se vería oscurecida. En el ejemplo de Uriagereka, nada impide que [a a woman] se genere también en una
derivación paralela, como el especificador: sólo una estipulación establece el orden de materialización y
la pertenencia a la misma CU que el V o no.

 No se habla sobre las condiciones de legibilidad de FL, sino sólo sobre el acceso cíclico a FF. No
obstante, el planteo requiere ajustes menores en caso de querer incluir fenómenos de FL (Juan
Uriagereka, p.c.), aunque tal iniciativa no ha sido llevada a cabo de forma completa (ver Uriagereka,
2008 para una propuesta tentativa).

c) Epstein y Seeley (2002 “Rule Applications as Cycles in a Level Free Syntax”)

Epstein & Seely parten de la consideración de una serie de supuestos aparentemente ineliminables en el
Programa Minimalista de orientación chomskyana:

1. Una expresión es una asociación de forma y contenido (FF y FL)

2. Los elementos léxicos son conjuntos de rasgos.

Las Operaciones Sintácticas tienen como objetivo generar objetos legibles (i.e, totalmente interpretables) para
las interfaces. La operación Spell-Out “elimina” los rasgos no interpretables para FL (Chomsky, 1999), que son
aquellos que entran no valuados a la derivación. Para Chomsky, la fase es el locus en el que se da la valuación,
y que luego será transferido a las interfaces. El problema que encuentran Epstein y Seeley es el siguiente: Spell-
Out no puede saber qué rasgos serían no interpretables por FL si no puede “mirar adelante” (look ahead) a la
interfaz para conocer sus condiciones de legibilidad y “mirar atrás” (backtracking) para saber qué rasgos
entraron no valuados a la derivación10.

Problema: ¿Cuándo (i.e, en qué punto de la derivación) se aplica Spell-Out?

a) Antes de la valuación:

10
Chomsky (2005) intenta neutralizar la objeción mediante la estipulación de que valuación y borrado de rasgos no
interpretables se dan simultáneamente, como parte de la transferencia cíclica. No obstante, es precisamente su carácter
estipulativo lo que hace que esta aparente “solución” en realidad no sea tal.

15
Resultado: colapso. Los rasgos no están valuados, por lo que no son legibles.

b) Después de la valuación:

Resultado: colapso. Spell-Out no tiene forma de saber qué rasgos entraron valuados a la derivación y
cuáles no, por lo que no sabe qué es legible por FL y qué no.

Epstein y Seeley se oponen a hablar de borrado de rasgos (“feature deletion”), ya que si los rasgos se eliminan,
no están en ninguna interfaz, y aparentemente los rasgos (fonológicos) permanecen en FF.

Spell-Out se aplica dentro de ciclos transformacionales, cuyo input es un objeto sintáctico con rasgos no
interpretables y cuyo output es un objeto legible para las interfaces. Cada output es transferido dinámicamente,
de acuerdo a las condiciones de legibilidad de cada interfaz. Idealmente, cada aplicación de una regla
transformacional (como Agree) delimita un objeto transferible.

La operación, entonces, es derivacional, no se aplica a una representación (ya que tanto la representación pre-
como post- regla transformacional generan colapso), sino dentro de un ciclo derivacional.

14)
Transferencia
Regla
[α …u-F…] [α…+/- F…] Interfaces
(Move,
Input Agree, Output
etc.)

Move α se considera una regla transformacional, como en los primeros planteos generativos (Chomsky, 1957,
por ejemplo). Operaría de manera estándar, como se asume en el Minimalismo chomskyano. En este marco, las
copias / huellas son “remanentes” de estadíos derivacionales previos. No tienen entidad real, sino que son
ocurrencias “diacrónicas” del mismo elemento. El sistema podría hacer un backtracking al paso derivacional
inmediatamente anterior, es decir, al input de la regla transformacional, para ver qué rasgo no tenía valor (y era,
por lo tanto, no interpretable en FL).

Ventajas:

 Elimina las estipulaciones sobre los núcleos de fase.

 Fortalece la parte “derivacional” del PM, lo cual es una ventaja ya que la concepción representacional
del sistema es muy propia de GB, y la caracterización de los niveles de representación y sus condiciones
de buena formación se puede hacer difícil y overlapping.

16
 Caracteriza Merge como una operación inherentemente “diacrónica”, hay un orden necesario en la
derivación, resultado de las sucesivas aplicaciones de Merge y de las reglas transformacionales. Es
necesario que el sistema tenga acceso tanto al input como al output de la regla.

Problemas:

 Sobregeneralización de la condición de fase (phasehood)11 (ver infra.)

 La definición de Spell-Out es cuestionable, ya que también podría decirse que la operación separa los
rasgos interpretables por FF (fonéticos) y los manda a la interfaz, dejando el resto a FL. Preferimos
mantener el término “transferencia”, usado por Chomsky (2005, 2007).

 Si consideramos la versión fuerte de la teoría, entonces esto plantearía problemas para el movimiento de
constituyentes: si cada aplicación de Ensamble (tomado como una regla transformacional) determina un
objeto transferible, y el movimiento dentro de una proyección está vedado por restricciones de anti-
localidad, entonces no habría forma, de acuerdo con Boeckx, de extraer un objeto del dominio de VP, ya
que éste se transferiría al ensamblarse con el núcleo. El problema que Boeckx encuentra en la propuesta
de Epstein y Seeley es que hay “demasiadas fases” y no se proponen “escape hatches” para el
movimiento cíclico de constituyentes.

 Pese a defender una versión fuertemente derivacional del modelo generativo, la teoría es claramente
poliestratal, ya que requiere una representación pre-transformación y una post-transformación que
difieran en aspectos fundamentales para la legibilidad en las interfaces. En este sentido, una versión de
Movimiento como la defendida en Culicover & Jackendoff (2005) o Krivochen (2012b), con base
monoestratal resulta menos dependiente de las características de las representaciones en juego.

d) Grohmann (2003a “Prolific Domains. On the Anti-Locality of Movement Dependencies”, 2003b


“Successive Cyclicity under (Anti-) Local Considerations”, 2004 “Prolific Domains in the
Computational System”)

11
Una versión fuerte de la hipótesis de Epstein y Seely implicaría, como sostiene Gallego (2010), que cada aplicación de
Ensamble delimitaría un objeto transferible. Esto requiere, claro, que se considere que Ensamble es una operación
transformacional, y que cuando se aplica se valúa un rasgo no interpretable (que podría ser el Edge Feature de Chomsky,
2005a; 2007, aunque esto no es afirmado por Epstein y Seely). Gallego sostiene que un modelo tan “fuertemente
derivacional” implica demasiadas operaciones de transferencia, sin que quede claro “demasiadas” respecto de qué criterio.

17
El punto de partida de la postura de Grohmann para establecer dominios locales es la estructura de frase tripartita
vigente desde Barreras (1986), es decir: [CP [TP [VP]]]. A partir de ese esqueleto clausal, Grohmann (2003)
define su noción de dominio prolífico:

“A Prolific Domain is a contextually defined part of the computational system, which provides the
interfaces with the information relevant to the context and which consists of internal structure,
interacting with derivational options” (Grohmann, 2004: 212).

CP, TP y VP son prolíficos en el sentido en que contienen más de una “capa” (crucialmente) funcional:

 CP se expande en ForceP, TopP, FocP y FinP desde Rizzi (1997).

 TP se expande en AgrSP, AgrOP, sintagmas aspectuales, NegP desde Pollock (1989) y trabajos
posteriores.

 VP se expande en vP y VP desde Larson (1988) y Hale y Keyser (1993).

Dentro del dominio de V y sus proyecciones asociadas se establecen las relaciones temáticas, por lo que este
dominio será denominado dominio-Θ. El dominio-Θ correspondería a la SEM1 de Chomsky (2005a).

Dentro del dominio de T y sus proyecciones asociadas se licencian las propiedades de concordancia, por lo que
este dominio será denominado dominio-Φ.

Dentro del dominio de C y sus proyecciones asociadas se dan operaciones discourse-driven, correspondientes a
la SEM2 de Chomsky (2005a). Este dominio será denominado dominio-Ω.

Consideradas las capas funcionales “prolíficas”, la estructura revisada quedaría como sigue:

15) [ΩΔ ForceP…TopP…FocP…FinP [ΦΔ AgrSP…TP/IP…AgrOP… [ΘΔ vP…VP]]]

Spell-Out se aplica en cada dominio prolífico ΠΔ. La derivación procede cíclicamente de dominio en dominio, y
cada ΠΔ es materializado una vez completado, ya que posee información relevante para FF y FL. En este
sentido, el dominio prolífico es similar a la fase: es un objeto totalmente interpretable por las interfaces (aunque
en el planteo de PD es precisamente esta interpretabilidad lo que define los dominios locales “contextualmente”,
mientras que los planteos chomskyanos recientes consideran la interpretabilidad en las interfaces una
consecuencia más que una causa de la condición de fase de un dominio D).

Restricciones sobre el Movimiento:

18
 Anti-localidad: el movimiento dentro de un mismo dominio prolífico cuenta como demasiado local, y
provoca que la derivación colapse. La formulación de la anti-localidad es la siguiente (Grohmann,
2004):

Condition on Domain Exclusivity (CDE): An object O in a phrase marker must have an exclusive
Address Identification AI per Prolific Domain ΠΔ, unless duplicity yields a drastic effect on the output.
i. An AI of O in a given ΠΔ is an occurrence of O in that ΠΔ at LF.
ii. A drastic effect on the output is a different realization of O at PF.

Es decir, no puede haber más de una ocurrencia de un objeto sintáctico por dominio prolífico, ya que una cadena
existente dentro de un ΠΔ no sería interpretable por FF. Grohmann formula la operación “Copy Spell-Out”, que
asigna a una copia una matriz fonológica diferente a la otra (en la forma de un “gramatical formative” como un
reflexivo) como única excepción a la anti-localidad, un “efecto drástico en el output”. El objetivo de Grohmann
es definir las operaciones aplicables dentro de y entre ΠΔ de acuerdo a las condiciones de legibilidad de las
interfaces.

La formulación de la CDE lleva a rechazar la postulación chomskyana de múltiples Specs- en vP como escape
hatches para el movimiento de objetos dentro de VP o incluso adjuntos a VP, ya que contaría como movimiento
interno a un dominio prolífico (el dominio Θ, en este caso), y, por lo tanto, demasiado local.

 Localidad: La localidad en el movimiento depende del tipo de movimiento que se esté considerando.
Grohmann (2003, 2004) distingue dos tipos:

a) Intra-Clausal Movement: se da entre diferentes dominios dentro de una misma cláusula. Un objeto sólo
puede moverse al dominio prolífico inmediatamente dominante. La regla queda formulada como sigue
(Grohmann, 2004: 214):

Intra-Clausal Movement Generalization


[βΔ XP … [αΔ … XP … ] ], where β >> α

Así, por ejemplo:

16) [CP What did [TP you did [AgrOP what [VP buy what]]]].

Dominio-Ω Dominio-Φ Dominio-Θ

b) Inter-Clausal Movement: se da entre dominios idénticos en cláusulas diferentes. Un objeto sólo puede
moverse de un dominio en una cláusula al mismo dominio de la cláusula destino. La regla queda
formulada como sigue (Grohmann, 2004: 215):

19
Inter-Clausal Movement Generalization
[αΔ XP … ‡ … [αΔ … XP … ] ], where ‡ = clause boundary

Grohmann (2003a: 303 y ss., 2004) compara su propia propuesta de dominios prolíficos con las fases
chomskyanas:

 Ambos modelos establecen condiciones de localidad para las computaciones sintácticas, pero los ΠΔ
estarían motivados “contextualmente”, mientras que las fases están motivadas “proposicionalmente” en
un primer momento y “computacionalmente” en un segundo momento.

 Grohmann interpreta la aplicación de Spell-Out en el modelo chomskyano como si ocurriera una vez
que el núcleo de fase siguiente al pertinente entra a la derivación, así, el dominio de v(*) se
materializaría una vez que C entre en la derivación. Los ΠΔ, por su parte, se materializarían no bien
completos. No obstante, Chomsky (1999: 28) sostiene “(…) An element to be extracted [out of a phase]
can be raised to the edge, and the phonological component can Spell-Out the domain at once, not
waiting for the next phase (…)” Destacado nuestro. La objeción de Grohmann vale únicamente si se
acepta la versión 2 de la CIF, cuyas consecuencias hemos criticado arriba, pero la versión 1 neutraliza el
problema.

 TP no cuenta como fase fuerte, pero con sus proyecciones asociadas sí cuenta como dominio prolífico.
DP está en duda en el modelo chomskyano, pero Grohmann (2003a) propone una estructura tripartita
para DP para fines de homogeneización de la estructura funcional: [DP [AgrP [NP]]], por lo que DP
sería también un dominio prolífico. No obstante, la adecuación descriptiva a la que llega Grohmann (por
ejemplo, en su análisis de posesor rising en alemán) puede lograrse sin necesidad de recurrir a
proyecciones de concordancia (AgrP), como hemos demostrado en Krivochen (2012).

 Sólo se permite un especificador por ΠΔ como consecuencia de la CDE mientras que las fases
chomskyanas requieren múltiples especificadores como escape hatches.

 El Movimiento está regido por principios de localidad y anti-localidad, que reemplazarían a las
condiciones tradicionales del PM: Minimalidad Relativizada, Shortest Move, Condición de Eslabón
Mínimo, etc.

Ventajas:

 Elimina las estipulaciones respecto de los núcleos de fase.

20
 Los dominios prolíficos se definen en términos de las propiedades de interfaz, por lo que estarían
motivados por principio (Chomsky, 2005b).

 Como consecuencia de lo anterior, Grohmann intenta proponer una base más firme para las propuestas
de Split-Projections en términos estrictamente minimalistas.

Problemas:

 No se establece qué condición debe cumplir una proyección para ser parte de un dominio prolífico. En
otras palabras, si bien los dominios-Θ, Φ y Ω estarían justificados por las condiciones de interfaz, ya que
cada uno proporcionaría información de distinta naturaleza a los sistemas de actuación, no están
igualmente justificadas las proyecciones que conforman cada dominio. Así, por ejemplo, Grohmann
distingue una proyección AgrOP dentro del dominio-Φ, pero, siguiendo la argumentación de Chomsky
(1995), las proyecciones de Agr no son más que receptáculos de rasgos-φ sin interpretación en las
interfaces. Si un dominio contiene una proyección no interpretable, entonces el dominio mismo no es
totalmente interpretable. Las proyecciones que se introduzcan deben estar justificadas en términos de las
propiedades de interfaz, como se intenta hacer en Krivochen (2012) con ModP, AspP y TP.

 La interacción entre intra- e inter-clausal movement resulta problemática. Siguiendo la Intra-Clausal


Movement Generalization, un elemento sólo puede moverse dentro de una cláusula al dominio
inmediatamente dominante. No obstante, esto conlleva una consecuencia indeseable, ya que, por
ejemplo, en una interrogativa a larga distancia como [CP Where did [TP you [VP say [CP that [TP he would
[VP [VP hide the money] where]]]]]]?, el Wh- debería moverse en primer término a una posición en el
dominio-Φ, pero un adjunto no puede ocupar posiciones-A, y no hay proyección que pueda crear una
posición para el elemento movido. Si, por el contrario, se sigue estrictamente la Inter-Clausal Movement
Generalization, entonces el Wh- debería moverse al dominio-Θ de la cláusula destino, y el problema es
el mismo. Si intentamos mover un argumento, como en [CP1 What did [TP you [VP say [CP2 that [TP he had
[VP bought what]?, entonces el problema es el siguiente: si el Wh- sube cíclicamente hasta Spec-CP2 por
intra-clausal movement (es decir, pasando por el dominio-Φ), no podrá moverse a Spec-CP1 por inter-
clausal movement hasta que la derivación haya alcanzado ese estadío, pero si es así, entonces quedará en
Spec-CP2 con rasgos a cotejar. Si esto es correcto, entonces el Spell-Out de los dominios intermedios (es
decir, entre CP2 y CP1) llevará al colapso de la derivación, ya que se estaría enviando a las interfaces un
objeto no interpretable totalmente.

e) Fases en Morfología Distribuida: Panagiotidis (2009 “Four Questions on the Categorization of


Roots”, 2010 “Categorial Features and Categorisers”); Marantz (2006 “Phases and Words”);
21
Fábregas (2005 “La definición de la categoría gramatical en una morfología orientada
sintácticamente: nombres y adjetivos”)

Morfología Distribuida es una teoría sobre la arquitectura de la gramática mental basada en la distribución de la
información contenida en los ítems léxicos (rasgos fonológicos, semánticos y formales) en tres “listas” a ser
accesadas en diferentes puntos de la derivación sintáctica. La sintaxis opera sobre terminales de rasgos formales
(Lista A), a los que Spell-Out hace corresponder matrices fonológicas (Lista B) de acuerdo a las especificaciones
distribucionales de estas matrices. Por el lado de FL, la Lista C, o “enciclopedia” proporciona información
respecto del significado de las piezas transferidas. Los elementos que se manipulan en la sintaxis, crucialmente,
no tienen categoría inicialmente (siguiendo una sugerencia de Chomsky, 1970), si no es a través del Ensamble de
una raíz con un elemento que le de categoría, los llamados “categorizadores” (Noyer, 1998; Marantz, 1997 entre
otros). La estructura de los elementos léxicos es, entonces, la siguiente:

17) raíz + “categorizador” (n, v) (+ otros afijos + categorizador12 + …).

Los elementos léxicos (raíces categorizadas) son unidades de forma (FF) y significado (FL) que tienen que
recibir una interpretación en las interfaces una vez que se ha establecido la categoría de la raíz, por lo tanto,
corresponderían a fases. La condición de fase estaría determinada por los categorizadores, que tendrían rasgos
[N] y [V], interpretables en FL. [N] correspondería a objetos y sustancias, mientras que [V] correspondería a
eventos localizados en el tiempo, independientemente de Aktionsart. Cada rasgo determina los nodos funcionales
con los que la raíz podrá luego ensamblarse: [N] con NumP y DegP, [V], con T, Asp y Voice; y hace a una raíz
manipulable por C(HL). En palabras de Panagiotidis: “(…) That is why we cannot have roots in syntax unless in
the complement of a categorizer: the categorial feature [N] or [V] on n or v provides the necessary perspective
for the root to be interpreted. (…)” Panagiotidis (2009: 8). Las raíces estarían subespecificadas semánticamente,
por lo que no serían objetos legítimos en FL de no estar categorizadas.

Panagiotidis (2010) distingue cuatro tipos de elementos en la gramática:

a) Raíces, a-categoriales y semánticamente subespecificadas.

b) Categorizadores (v, n), conjuntos de rasgos determinados por UG con valores para las dimensiones [N]
y [V].

c) Nodos funcionales (D, Asp, T, Voice, Num), conjuntos de rasgos determinados por UG con con rasgos
categoriales no valuados [u-N] y [u-V] que se valúan en el ensamble de estos elementos con las raíces
categorizadas.

12
Por ejemplo, en derivaciones, verbos denominales (obtenidos mediante “conversión”), nominalizaciones deverbales, etc.

22
d) Morfemas internos (inner morphemes: –ee, de-), conjuntos de rasgos determinados por UG sin rasgos
categoriales, por lo que tienen con las raíces una relación menos restringida que los nodos funcionales.

Las fases dentro de la estructura léxica determinarían el alcance relativo de ciertos morfemas (inner morphemes).
Por ejemplo, el prefijo [des-] (que materializa un nodo Neg0), puede dominar a v o no, dando como resultado
diferentes lecturas en C-I:

18)

i) Reversativo: [CAUSAR [NO √]] v domina a [des-]

ii) Privativo: [NO [CAUSAR [√]]] [des-] domina a v

Así, los afijos pueden o no afectar directamente a una raíz.

Pese a que Marantz sostiene que los categorizadores determinan fases (y Fábregas lo sigue) Panagiotidis (2009)
sostiene que, en una estructura verbal, el núcleo de fase no sería el categorizador (v) sino una proyección
funcional VoiceP que estaría relacionada con la transitividad. Así, la causativización de verbos ergativos
(estructuras “causativas léxicas”) implicaría añadir una VoiceP a la estructura [vP [√]], que sería meramente
eventiva.13 Si v fuera una fase en inacusativos y ergativos sin argumento externo, entonces al añadir la VoiceP
para “causativizar” el ergativo habría una “doble fase”, lo que Panagiotidis quiere evitar. En términos gráficos, la
situación es la de (19):

19)

a) b)
VoiceP
vP
Voice vP
v ROOT
Phase domain
v ROOT
√ROOT Argument
√ROOT Argument

Ej: John broke the window Ej: The window broke

Ventajas:

13
Podemos, provisoriamente, establecer cierta correspondencia entre VoiceP y vP con los nodos R y T en las ESR de Mateu
Fontanals. Ver infra y Mateu (2000a, b)

23
 Permite unificar los procesos derivacionales, al utilizar el concepto de fase dentro de la estructura de los
elementos léxicos.

Problemas:

 No queda claro, más allá de la estipulación, por qué VoiceP, y no vP, debe determinar la presencia de
una fase. Si la idea es que todos los elementos léxicos son unidades de forma y significado, entonces los
verbos inacusativos y ergativos (vPs) tendrían que ser asimismo fases. ¿Por qué no es v el que determine
la fase, en lugar de Voice (con lo que también se evita la doble fase en transitivos)?

 Los verbos inergativos no son explícitamente considerados dentro del planteo de la VoiceP. ¿VoiceP es
igual a Transitividad o a Causatividad? Ambos conceptos deben ser debidamente distinguidos:

20) a. John runs (inergativo: causativo-no transitivo)

b. John has a book (transitivo-no causativo)

 De las representaciones anteriores (19a) y (19b) se desprende que en las estructuras morfológicas está
codificada la estructura argumental (ya que las raíces tomarían argumentos14), pero no se explicita de
qué manera, ni tampoco qué rasgos se descargan al ensamblar la raíz con el argumento, rasgos que
causarían que la derivación colapsara de no saturarse la valencia de la raíz.

 Boeckx (2010) critica el hecho de que una concepción que considere los elementos léxicos como fases
implica tener un sistema con “demasiadas fases”: si cada palabra determina un objeto transferible, la
reducción del costo computacional quedaría puesta en duda. Además, las operaciones de reconstrucción
post-transferencia se complican ya que no se contempla en el modelo la inclusión de instrucciones
(procedimentales) sobre cómo relacionar los elementos transferidos.

Parte II: Nuestra propuesta

Definición de fase: P es una fase en un nivel15 LX ssi P es el mínimo término totalmente interpretable en (i.e,
manipulable por) LX+1 (es decir, en el nivel siguiente).

14
Ver, por ejemplo, Embick y Noyer (2004), donde el argumento interno se genera dentro del dominio de √.
15
No debe confundirse nuestro uso del término “nivel” con el que tenía en el modelo Chomskyano de los 80, en el que
“niveles” eran D- y S-Structure, FL y FF.

24
Se reemplaza el concepto de fase por el de fase en L. En relación a los enfoques anteriores, nuestra propuesta se
alinea con los que delimitan las fases en términos de convergencia (Uriagereka, en cierta medida Grohmann, ya
que define los dominios prolíficos en términos de las propiedades de interfaz) y se aparta de la concepción de
Chomsky (fases proposicionales en un primer momento, luego definidas como el locus de la valuación de rasgos,
siempre en torno a dos núcleos determinados a priori), por considerarla estipulativa. Resulta neutral con respecto
a Epstein y Seeley, ya que no se mencionan operaciones transformacionales como delimitadoras de objetos
transferibles. La transferencia a FF (Spell-Out) se aplica a un término que es, en todo caso, resultado de la
aplicación de una operación, pero no se aplica dentro del ciclo transformacional. No obstante, se evita la
dificultad señalada por Epstein y Seeley respecto del “momento derivacional” de la aplicación de Spell-Out ya
que no se afirma que su función sea eliminar rasgos no interpretables para FL, sino que se toma el concepto de
transferencia, que es más amplio y menos estipulativo. Transferencia implicaría solamente enviar un objeto a
los sistemas externos, sin la estipulación añadida de la eliminación de rasgos no interpretables por FL.

Nuestra definición tiene la ventaja de que es aplicable a cualquier módulo mental, no sólo a lo lingüístico.
Teniendo en cuenta los paralelismos entre la capacidad lingüística y la matemática, la musical16, o el sistema
visual, esto es, creemos, una consecuencia deseable.

Niveles:

Ya que se trabaja con el concepto de fase en L, se hace necesario definir cuáles son los niveles relevantes.
Creemos que la definición que damos es compatible con cualquier arquitectura de las facultades mentales con
que trabaje el lector, provisoriamente, nosotros proponemos la siguiente arquitectura:

Elementos mínimamente requeridos para una derivación lingüística:

 Un sistema computacional (que combine mediante ensamble elementos discretos, que establezca
relaciones de licenciamiento de dimensiones en un dominio local, y que permita el movimiento de
términos si así fuera requerido17) [5/2015: a esta altura, el sistema está muy simplificado. Un análisis de
‘ensamble’ puede encontrarse en ‘On Phrase Structure Building’, The Linguistic Review 32(3).
‘Movimiento’, por otra parte, se deconstruye en ‘Tokens vs. Copies’, Studia Linguistica. No obstante, la

16
Ver, por ejemplo, Jackendoff y Lerdahl (2004).
17
La explicitación de las motivaciones del movimiento (que nosotros no entendemos en sentido literal como
“desplazamiento”) no es algo que vayamos a hacer aquí. Para Chomsky (ver, p. ej. 1998), los elementos se mueven en la
sintaxis para cotejar rasgos no interpretables (con lo que reduce dos “aparentes imperfecciones” a una), mientras que para
Moro (2000), siguiendo los pasos de Kayne (1994), el movimiento es una operación de FF que se realiza para crear
asimetrías ya que, si bien los puntos de simetría (i.e: mando-c mutuo entre categorías) son “tolerables” en la sintaxis, no son
linealizables.

25
idea fundamental de que las fases, o dominios, son unidades semánticas mínimas y sintácticas máximas
se mantiene vigente]

 Un conjunto no necesariamente ordenado de elementos con propiedades (dimensiones) distintivas.


[5/2015: esto tampoco se sigue. Actualmente, la posibilidad de que estemos trabajando con
perturbaciones no discretas en un campo está en investigación, y en tanto veamos la conexión entre
elementos como interferencias entre las funciones de onda que definen cada perturbación, el carácter
discreto que proponemos aquí es en realidad una desventaja para la implementación neurocognitiva del
modelo]

 Un sistema (módulo) extralingüístico conceptual-intencional

 Un sistema (módulo) extralingüístico articulatorio-perceptivo

Puntos de partida: [5/2015: lo que sigue parte de asunciones relacionadas a la llamada Computational Theory
of Mind, ver por ejemplo Gallistel & King, 2010. Rogamos al lector tomarlo con pinzas, particularmente cuando
se haga énfasis en el carácter discreto de los pasos derivacionales a la vez que de los elementos involucrados; la
misma cautela debe tenerse al considerar los límites entre módulos. Actualmente, la noción de interferencia
entre oscilaciones continuas (Saddy, 2016: Syntax and Uncertainty) está dando mejores resultados que una
computación basada en funciones y con un flujo informacional unidireccional]

 El cerebro-mente en su totalidad se rige por principios de economía18. En Facle, economía es, por
ejemplo, localidad en las operaciones (Movimientos más cortos, efectos de Superioridad, Subyacencia,
Barreras, etc.). El cerebro-mente es un conjunto de módulos, sistemas computacionales relativamente
autónomos con base biológica y pautas de desarrollo específicas, cada uno de los cuales tiene sus
aplicaciones particulares de los principios de economía. La anterior definición de fase es válida para
cualquier sistema.

 Los módulos están interconectados. La interconexión implica operaciones de transferencia, en las que
un sistema proporciona información a otro en una forma que sea legible. La transferencia sigue dos
principios de economía: el Earliness Principle (Pesetsky, 1995: las operaciones se aplican tan pronto
como sea posible) y el Principio de Interpretación Plena (Chomsky, 1995: no debe haber elementos
superfluos/no interpretables en las representaciones que llegan a los niveles de interfaz). Si esto es así,
no bien se forme un objeto en el nivel L1 que éste sabe totalmente interpretable por L2, el objeto se
transfiere.

18
Ver, por ejemplo, Krivochen (2010).

26
 Los sistemas de interfaz, cualesquiera sean, pueden mirar dentro del sistema computacional, analizar un
objeto construido mediante Ensamble libre y determinar si cumple con las condiciones de legibilidad.
De ser así, siguiendo nuestra definición de fase y el Earliness Principle, el objeto en cuestión es
transferido. De esta manera, evitamos el problema del look ahead que aparecería si un sistema debiera
tener acceso a las condiciones de legibilidad de los sistemas a los que debe proporcionar información y
tampoco caemos en el look back, ya que no es un sistema el que mira hacia atrás en su propio tiempo
derivacional, sino que un sistema Y evalúa objetos construidos en el sistema X, siendo que X transfiere
a Y estos objetos si son totalmente interpretables.

Teniendo en cuenta los principios anteriores, explicitemos el funcionamiento de nuestras fases en la


derivación de una expresión lingüística. Partimos de una estructura conceptual, no lingüística. Esta estructura se
compone de primitivos semánticos, conceptos genéricos pero delimitados que pueden combinarse
computacionalmente dado su “formato común” (Boeckx, 2010) para formar objetos conceptuales más
complejos, estructurados. Estos objetos conceptuales deben poder ser leídos por la sintaxis para generar una
expresión lingüística, de modo que, siguiendo los principios anteriores, el sistema C-I debe: (a) tener acceso a las
condiciones de legibilidad de la sintaxis y (b) producir un objeto que cumpla mínimamente con estas
condiciones. [No necesariamente. Podemos admitir que la generación de estructura es más o menos uniforme sin
necesidad de que haya condiciones de legibilidad en el sentido minimalista. Si los componentes son campos con
distintas propiedades topológicas (e.g., metricidad, ultrametricidad), entonces las condiciones de legibilidad son
simplemente condiciones sobre objetos formales: si un sistema ultramétrico interactúa con uno métrico, entonces
los objetos que sean manipulados tendrán que someterse a una función métrica. Una herramienta matemática que
nos permite hacer esto es el llamado ‘center manifold theorem’, Carr (2006)] La sintaxis, consideramos,
manipula y genera estructuras jerárquicas, independientemente del simbolismo utilizado (es decir, podrían ser
árboles o modelos atómicos, la única diferencia sería la mayor o menos plausibilidad biológica de uno u otro
modelo). Siendo que consideramos que C-I es computacional, este módulo construye un objeto semántico
“sintácticamente pertinente”, que identificamos con las ESR de los trabajos de Jaume Mateu Fontanals (1999,
2000a, 2000b): “(…) our main proposal concerning the interface between Conceptual Semantics and Syntax is
that there is a syntactically relevant conceptual structure, which can be represented in a meaningful tree
structure (…)” (Mateu, 2000b, énfasis nuestro). Las ESR son estructuras jerárquicas que representan los tres
constructos semánticos básicos posibles: el inergativo, el (di)transitivo y el inacusativo. Estos constructos
semánticos se generan a partir de la proyección de tres nodos: R (un nodo causativo presente en estructuras
inergativas y (di)transitivas en cuyo Spec- se genera el iniciador o agente y cuyo complemento es T), T (un nodo
transicional, sin especificador y con un complemento, sea la proyección relacional r en el caso de los
inacusativos y (di)transitivos o un núcleo no relacional en el caso de los inergativos) y r (un nodo relacional
dentro del cual se establecen relaciones espaciales entre en términos de Figura y Fondo). Cada nodo estaría

27
asociado con rasgos estructurales (de acuerdo con Mateu, elementos como “eventivo”, “relacional”, “no
relacional”, rasgos que pueden leerse de la estructura y son pertinentes a la proyección sintáctica de los
argumentos) y rasgos con contenido (“contentful”), como central-terminal coincidence, BE, GO, etc., que no
serían pertinentes para la proyección sintáctica de la ESR (Mateu Fontanals, 2000a: 7). Las ESR no contendrían
otros elementos que los primitivos semánticos y los argumentos, sin dimensiones funcionales-procedimentales.
Estas estructuras conceptuales representadas en diagramas arbóreos, jerárquicos y binarios, deberían ser legible
por la sintaxis, ya que cumplen con sus condiciones de legibilidad. Por lo tanto, proponemos provisoriamente
establecer la instancia pre-sintáctica de C-I como el primer nivel, y la ESR como el output de ese nivel (de
acuerdo con Mateu, de hecho, las ESR se ubican en la interfaz entre la semántica conceptual y la sintaxis). Así,
en la composición de la ESR, un término (por ejemplo, el nodo r completo con su figura y fondo) será una fase
en C-I si es el mínimo término totalmente interpretable por la sintaxis, lo que significa que es manipulable y no
contiene elementos superfluos. Asumimos que la composición en todos los niveles se da en un tiempo, por lo que
no se pasa de la nada a una estructura completa (como correspondería a un modelo más representacional) sino
que los primitivos (en este caso) se van combinando secuencialmente y la transferencia se aplica en tiempo real,
no bien sea posible. No obstante, se presenta un problema: el módulo C-I no puede contener sino conceptos
genéricos (sólo entidades conceptuales, no procedimentales), primitivos semánticos que no son per se entidades
lingüísticas19 ya que Facle no es el único módulo con el cual interactúa: C-I sería, consideramos, fundamental en
la ordenación de la información proveniente de la percepción y la construcción de conceptos, que son requeridos
por otras facultades aparte de la lingüística, como la visual: al enfocar un objeto, por ejemplo, se lo aísla
automáticamente de su entorno (lo cual no es trivial, ya que normalmente no hay límites claros entre “figura” y
“fondo” en el mundo fenomenológico) y se evoca ipso facto el concepto genérico correspondiente, sin que medie
la facultad del Lenguaje. Si un determinado módulo interactúa con otros varios, como parece ser el caso,
entonces su output debe estar lo suficientemente “subespecificado” como para poder ser compatible con las
condiciones de legibilidad de diversas facultades, ya que, según nuestras asunciones básicas, un objeto no puede
transferirse si contiene elementos “superfluos” (i.e, no interpretables). El objetivo, metodológica y
sustantivamente, es “empobrecer” lo más posible al módulo en cuestión (C-I, en nuestro caso particular), en
términos de elementos y operaciones, sin perder ni en adecuación descriptiva (descripción de las interacciones
concretas entre los módulos) ni en adecuación explicativa (descripción de la arquitectura del módulo, su estado
inicial y su desarrollo). En términos de Chomsky (2007), restringido a Facle:

19
Ver, por ejemplo, Panagiotidis (2010: 12): “(…) it seems that roots are elements coming from outside FLN (the Faculty of
Language in the Narrow sense) which however FLN has to manipulate (…)” La categorización, supone Panagiotidis, es la
forma de hacer que FLN pueda manipular esos objetos extralingüísticos. Nosotros consideramos, como se verá más abajo,
que los objetos que provienen de fuera de Facle no son exactamente raíces, aunque coincidimos en afirmar que hace falta
una “transducción” que los haga manipulables. Hacemos también referencia a la propuesta de Boeckx (2010) de distinguir
concepts (nuestros conceptos genéricos) de conceptual addresses (nuestras raíces). Ver nota 22.

28
“(…) Throughout the modern history of generative grammar, the problem of determining
the character of FL has been approached “from top down”: How much must be attributed
to UG to account for language acquisition? The MP seeks to approach the problem “from bottom up”:
How little can be attributed to UG while still accounting for the variety of I-languages attained (…)?” Chomsky
(2007: 3) Destacado nuestro.

C-I, entonces, debe manipular conceptos genéricos, pero delimitados, entidades pertinentes a varios
módulos (como el visual y los relacionados con la percepción en general) y, por lo tanto, entidades no
lingüísticas. La sintaxis no puede leer estos conceptos genéricos desprovistos de categoría (una versión de la
Categorization Assumption que se maneja en MD), por lo que un nivel intermedio parece necesario,
considerando las herramientas con las que contamos en un framework minimalista estándar. Ese nivel podría,
de manera provisoria, identificarse con lo que se denomina Lista A en los trabajos de Morfología Distribuida
(Halle y Marantz, 1993, Marantz, 1997, Embick y Noyer, 2004, Panagiotidis, 2010). Esta Lista sería una versión
minimalista del lexicón del modelo GB: contendría, consideramos, raíces léxicas pre-categoriales20 (que
instanciarían los conceptos genéricos de C-I en una forma compatible con las condiciones de Facle),
categorizadores21 (que se combinarían con las raíces para darles categoría, serían elementos con contenido
conceptual, interpretables a nivel de la explicatura) y dimensiones sintácticamente pertinentes, como Número,
Caso, Definitud, Referencialidad22, etc., propias de distintas categorías y distintos nodos, léxicos o funcionales,

20
La diferencia entre “conceptos genéricos” y “raíces” puede parecer difusa, y de hecho está actualmente en investigación.
Los conceptos genéricos son entidades a-categoriales (es decir, no admiten categoría) puramente conceptuales, que se
combinan mediante ensamble para formar las ESR. Son, en algún sentido, “más abstractos” que las raíces y están
severamente subespecificados, ya que son pertinentes, como hemos dicho, a un gran número de módulos. Las raíces, por su
parte, son entidades lingüísticas pero defectivas semánticamente: si bien contienen información semántica, no es suficiente
para la manipulación de estos elementos en el sistema computacional por carecer de categoría (ver Panagiotidis, 2010 e
infra, esp. nota 25) ni para la asignación de referencia en el módulo inferencial por carecer de dimensiones
procedimentales. No obstante, las raíces pueden (y, de hecho deben) categorizarse para ser interpretadas en la interfaz
semántica.
21
Respecto a los categorizadores, Fábregas (2005: 32) sostiene: “En MD, una raíz del español, como /bax–/, BAJ–, está
asociada a una información fonológica y a una semántica conceptual determinadas. Al contrario que en los modelos
lexicistas, dicho formante no manifiesta categoría léxica alguna, por lo que carece de etiqueta categorial. No obstante, en
la sintaxis puede ser un nombre, un adjetivo o un verbo, dependiendo de la naturaleza de la matriz de rasgos con la que se
haga el ensamble. Si este núcleo funcional es algo que llamaremos n pequeña, la categoría será el nombre; si es a pequeña,
será el adjetivo, y si es v pequeña, será un verbo.” Para nosotros, esto lleva a una proliferación excesiva de CCFF.
Krivochen (en preparación) presenta la hipótesis de que habría un solo nodo categorizador posible en la estructura
morfológica, compuesto por tres dimensiones: [evento], [entidad] y [causa]; la fijación de sus valores daría como resultado,
composicionalmente, la categoría. Así, por ejemplo, un verbo inergativo como “correr” estaría formado, en el nivel que nos
interesa, por una raíz √CORR- y un categorizador c [+ evento], [- entidad] y [+ causa]. No obstante, aquí mantendremos el
concepto “tradicional” de categorizador que se maneja en MD.

22
Para un análisis de estas dos últimas dimensiones, ver Krivochen (2010).

29
elementos con contenido procedimental23. No podemos prescindir de las raíces, ya que aportan el significado
conceptual (más allá del significado que tenga la configuración, al modo de Hale y Keyser), y las dimensiones
funcionales-procedimentales no son en sí “rasgos semánticos” en el sentido de “semas” ni nada semejante, sino
dimensiones muy básicas, óptimamente, muy escasas pero con gran peso procedimental (como [± perfectivo],
por ejemplo, que tiene injerencia en la interpretación tanto de los nominales como de los verbos, ver p. ej,
Krivochen, 2010). En cuanto a los categorizadores, mantenemos el concepto de Panagiotidis (2010), tendrían
rasgos interpretables en FL y establecerían con qué dimensiones funcionales podrá ensamblarse la raíz (ver
supra). Estos elementos se agrupan siguiendo el mismo criterio que hemos estado usando: una raíz se ensambla
con la mínima cantidad de elementos necesaria para: (a) ser manipulada por el sistema computacional y (b)
mantener el “contenido semántico” de acuerdo con el output de C-I, de lo contrario, dado un número X de raíces
y categorizadores, nada restringiría a priori que cualquier raíz se ensamble con cualquier categorizador
(pudiendo generarse en la sintaxis nodos terminales en los que no puede insertarse un ítem de vocabulario. Ver
infra). La Lista A trabaja con estructuras jerárquicas (syntactic hierarchical structure all-the-way-down, de
acuerdo con los planteos de MD) como la sintaxis (estrictamente, la separación entre “sintaxis” y “Lista A” no
sería lícita, ya que en MD se argumenta en contra de la existencia de una “interfaz morfología-sintaxis” en el
sentido tradicional ya que, en realidad, todo es sintaxis.24). La Lista produce una representación arbórea con
raíces conceptuales, categorizadores y dimensiones procedimentales que es, ahora sí, legible para la sintaxis, y la
transferencia se da siguiendo el concepto de fase que se definió arriba: una vez que la raíz se ha ensamblado con
los mínimos elementos necesarios para que la sintaxis la identifique y manipule, la estructura jerárquica
resultante se transfiere al espacio de trabajo. Resumiendo, el output de la primera instancia de C-I es una
estructura conceptual (ESR) para la que utilizamos diagramas arbóreos para representar binariedad y jerarquía,
los que consideramos principios rectores de toda representación simbólica no por estipulación sino por
condiciones de interfaz. Estamos de acuerdo en lo general con Mateu (2000b: 13) en cuanto a que:

23
La distinción que mantenemos entre categorizadores y nodos funcionales es cuestionable. Puede argüirse que no hace
falta un categorizador v (o c [+ evento], el valor de [± causa] dependerá de si el V es inacusativo, inergativo o transitivo)
que determine que una raíz se comportará como un V en la sintaxis, ya que T puede cumplir esa función (como se sostenía
en los primeros artículos de MD, ver, p.ej. Noyer, 1998 y artículos allí citados). Nosotros consideramos, por el contrario que
no es que una raíz X sea un V porque se ensambla con T sino que un objeto X se ensambla con T porque es un V. La
justificación para una categorización en la Lista A (previa a la sintaxis en sentido restringido) es la misma que la expuesta
en el cuerpo del texto: nada impide, de otro modo, que cualquier raíz se ensamble con cualquier nodo funcional en el
espacio de trabajo, pudiendo generarse estructuras agramaticales, “dummy merges” (una raíz como √MESA ensamblándose
con T, por ejemplo) que generen colapso a nivel de la interfaz FL. El tema está, desde luego, abierto a discusión, ya que la
existencia de categorizadores es una complicación sustantiva que se justifica exclusivamente por la falta de una opción más
económica en el estado actual de la teoría generativa. No obstante, nuestra definición y la arquitectura que proponemos
podrían fácilmente adaptarse a un sistema sin categorizadores, posibilidad que está en investigación.
24
Embick y Noyer (2004: 2) sostienen: (…) In respect to the interface between syntax and morphology, this architecture
has a clear consequence: since the only mode of combination in the grammar is syntactic, it follows that in the default case,
morphological structure simply is syntactic structure. (…). Énfasis nuestro.
30
“(…) Notions like “structure dependency”, “binary branching”, “unambiguous projection”,
“specifier/complement/head positions”, “dominance” or “sisterhood” (among others), which have
been thought to be only syntactic or purely formal, can also be argued to be meaningful notions
when applied to relational semantics . In other words, it is important to note that, although these
notions can be argued to be relevant to RSSs [Relational Semantic Structure], this does not mean
that syntax is relevant to these conceptual configurations. Rather, the conclusion that must be
drawn is that these notions cannot be reduced to be purely syntactic (i.e. non meaningful)
primitives, but they are more general notions that can also be applied to other non-syntactic levels
of mental representation (…)”. Destacado nuestro.

Sin embargo, creemos necesario hacer algunas salvedades, ya que nuestra postura es ligeramente
diferente. La sintaxis, entendida en un sentido amplio como un mecanismo generativo que permite combinatoria
formalmente irrestricta a partir de un número limitado de elementos con un mismo formato es relevante para
todas las representaciones simbólicas manipulables por la mente, sea el módulo que sea. La sintaxis, entendida
en un sentido restringido, como el sistema computacional instanciado en el sistema lingüístico (es decir, una
propiedad emergente de la interacción entre sistemas conceptuales y perceptuales), estaría circunscripta tal y
como Mateu sostiene. Las relaciones configuracionales/estructurales que Mateu cita son relevantes en la
representación de la ESR porque son, de una forma u otra, relevantes para todo proceso cognitivo que implique
representaciones simbólicas, en nuestro caso, la ESR es el output del sistema C-I. Está claro que debe tenerse
mucho cuidado al aplicar a la descripción general de las representaciones simbólicas ciertos conceptos (como
“especificador” o “complemento”), que tienen una larga historia dentro de los estudios generativos, a
representaciones no lingüísticas, pero, en tanto rótulos descriptivos, el uso no estaría vedado por principio.

Las ESRs no son representaciones manipulables por la sintaxis, ya que están compuestos por elementos
conceptuales genéricos, no categorizados y sin dimensiones funcionales25, elementos no lingüísticos (o, mejor,
pre-lingüísticos). Enriquecidos con los categorizadores y las dimensiones funcionales/procedimentales de la
Lista A, estos elementos conceptuales complejos ingresan a la sintaxis de forma que puedan ser identificados y
manipulados por C(HL).

En el espacio de trabajo estrictamente lingüístico, se produce el ensamble de un predicado con sus


argumentos, teniendo como base la representación de la ESR y los elementos extraídos de la Lista A, que pasan
al espacio de trabajo en “cascadas”, por fases. En el espacio de trabajo, el sistema computacional también valúa

25
Es decir, para nosotros el mapping entre ESR y Estructura Sintáctica no es directo, aunque pueda haber un cierto
homomorfismo entre ESR y estructura sintáctica con ciertos tipos de verbos. Hay que establecer también claramente una
distinción entre la ESR y la Estructura-P: la estructura-P era un nivel de representación que funcionaba como “interfaz
interna” entre la sintaxis y el léxico, la expresión pura de las relaciones temáticas presentadas en formato de X-barra con
nodos funcionales como T y C. Las ESR carecen de dimensiones funcionales, ya que son el resultado de las computaciones
con primitivos semánticos pre-categoriales, por lo que el nivel es, además, pre-léxico.

31
las dimensiones no valuadas para que sean interpretables en los módulos siguientes, A-P y un acceso post-
sintáctico a C-I. Nuestro enfoque estará puesto en la derivación a C-I, ya que nos interesa la representación
sintáctica como input para un proceso de interpretación inferencial. Sostenemos que el acceso post-sintáctico a
C-I representa el módulo inferencial con el que se trabaja en Teoría de la Relevancia (Sperber y Wilson, 1986a,
1986b, Wilson y Sperber, 2003, Leonetti y Escandell, 2000, 2004, Yus, 2010), y en el que cobran importancia
los rasgos “procedimentales”. Lo que en TR se denomina “Forma Lógica”, una forma proposicional incompleta
que representa el input para los procesos inferenciales (extracción de explicaturas e implicaturas), nosotros lo
tomamos como el output de la sintaxis, y consideramos que el acceso al módulo inferencial se da, una vez más,
por fases. Así, cuando en la sintaxis se genera mediante Ensamble un objeto al que el módulo inferencial puede
manipular, éste se transfiere a C-I, coincida o no con un objeto interpretable en A-P (por ejemplo, con “curva
tonal propia”): si bien la idea de una transferencia uniforme de las fases (es decir, la identidad o isomorfismo
entre lo enviado a FF y lo enviado a FL) parece, según Chomsky, la “opción óptima”, no creemos que sea la
hipótesis nula, sino que debe probarse empíricamente. Por lo pronto, asumiremos que no tiene por qué ser así,
siendo que hay encapsulamiento informativo entre los módulos. Siguiendo el modelo de valuación de los rasgos
de DP explicado en Krivochen (2010), una vez que las dimensiones [Referencialidad] y [Definitud] en D han
recibido valor en el espacio de trabajo entrando en relación de cotejo con nodos de T, Asp y Mod, una DP
particular podría resultar un objeto manipulable por C-I en el proceso de extracción de explicaturas
proposicionales (pre-sub determinado por [los rasgos presentes en] la representación sintáctica, ver Krivochen,
2010), ya que éstas son las dimensiones procedimentales claramente inherentes a D26 que más decisivamente
contribuyen a la asignación de referente, por ejemplo. Por lo tanto la DP en cuestión, una fase en C(HL), siguiendo
nuestra definición, se transfiere a C-I.

En cada caso, el output de un nivel debe ser totalmente interpretable para el nivel siguiente (lo que se conoce
como ‘entanglement’ en modelos interactivos de computación), por lo que no puede contener elementos
superfluos (que no reciban interpretación), dimensiones no valuadas, etc. ni tampoco presentarse en un formato
ilegible, aunque los elementos estén legitimados. El Principio de Interpretación Plena se aplica al output de cada
nivel, y, por hipótesis, en todos los módulos.

Fases y labeling:

Un sistema generativo requiere de una operación combinatoria recursiva, que permita operar con elementos
discretos y generar representaciones simbólicas estructuradas. En el marco del PM, esta operación es Ensamble.
La operación de Ensamble toma dos objetos, α y β, los une, y proyecta uno de ellos, generando bien {α, {α, β} o
{β,{α, β}, sin modificar internamente a ninguno, y motivado, aparentemente, por una propiedad presente en

26
Con respecto a los rasgos-φ y el Caso, no queda claro si son inherentes a D o a N, ya que hay concord (concordancia que
depende de Ensamble) y doubling en la Materialización. Son, aclaramos, también procedimentales.

32
todos los ítems léxicos (exceptuando vocativos e interjecciones), un Edge Feature (Chomsky, 2005a, 2007).
Filogenéticamente, esta operación habría surgido de una mutación, un “recableado del cerebro” que puso la
infinitud discreta al servicio de la mente en general. Esta operación básica, entonces, no es exclusiva de Facle,
sino que está disponible en varios módulos (como la capacidad matemática o la musical), y es la responsable en
gran medida de la diferencia cualitativa entre humanos y no-humanos en cuanto a las posibilidades de
pensamiento abstracto: la infinitud discreta nos permite componer conceptos, juicios, percibir y estructurar
información eventiva, etc. Esta operación de Ensamble, consideramos, sería no obstante una estipulación teórica
si no se justifica en términos de interfaz. Lo que intentaremos hacer será derivar Ensamble a partir de las
condiciones de legibilidad de C-I, para lograr un sistema más uniforme y una teoría más elegante. Nuestro
análisis de Ensamble nos llevará también a rever la teoría de las “etiquetas” (labels) y su pertinencia para la
transferencia por fases.

Partamos de la consideración de un ensamble como el de (21):

21) {, {, {α}}

Este ensamble es resultado de aplicar la operación a un elemento, lo que es, consideramos, trivial. Pero ¿en qué
nivel? Para nosotros, la trivialidad de (i) se da en C-I, ya que este módulo no puede operar con ese objeto.
Supongamos que α es una CL. Sin una CF que le otorgue referencia27, la derivación colapsa a nivel de la
explicatura, post-sintácticamente. Para nosotros, entonces, la motivación en las interfaces tiene que ver
especialmente con la pertinencia para la extracción de explicaturas en el caso de Facle (que es el que nos interesa
particularmente). A partir de este supuesto, podemos también simplificar la teoría de las etiquetas, derivándolas
del constructo semántico generado en la primera instancia de C-I que “alimenta” a la sintaxis y de
requerimientos de interfaz. Ensamble es una operación que permite que los objetos que entran a la sintaxis sean
manipulados de tal forma que se los pueda presentar de forma totalmente legible a los sistemas externos.
Ensamble va creando relaciones diacrónicamente (es decir, en una secuencia, es lo que lo diferencia
sustancialmente de la operación Satisfacer, que daba cuenta de la formación de frases en el modelo GB) y la
identificación de etiquetas se va dando tan pronto como sea posible, independientemente de los “núcleos de
fase” (Cf. Gallego, 2010). Entendemos que las etiquetas se identifican, no se crean, ya que esto último violaría la
condición de Inclusividad, pero nos parece pertinente aclarar que, para nosotros, las etiquetas son significativas
exclusivamente en C-I, no en la sintaxis. Como dijimos anteriormente, si tenemos un ensamble como (22)

27
Stamboni (2008) sostiene que las CCFF/PP “(…) Participan de relaciones de significado específicas, dependientes del
contexto sintáctico en que aparecen, y se limitan por lo general a definir la referencia de las entidades denotativas (…)”,
siendo que “entidades denotativas” incluye denotación de objetos tanto como de eventos. Para que esta relación tenga lugar,
la CF/P debe tener alcance sobre la capa léxica.

33
22) {α, {α, β}}

En el que α = CL y β = CF, la proyección de α resultaría en un colapso a nivel de la explicatura, estaríamos


tratando con un ente (“eventivo” o “nominal”) genérico, al que no se le puede asignar un referente. Las
proyecciones se van identificando de acuerdo a la interpretación en la interfaz pertinente. Por ejemplo,
supongamos que estamos ensamblando una ESR en la instancia pre-sintáctica de C-I. Si la derivación procede
bottom-up, entonces empezaremos desde el ensamble de un elemento no relacional X con el elemento relacional
locativo r:

23) {r, X}

En este caso, si proyecta X, entonces la derivación colapsa al nivel siguiente, ya que r es una categoría
procedimental que establece una relación espacial entre dos términos en términos de coincidencia central o
terminal. Si r no es el núcleo de la construcción, su valor procedimental se pierde, ya que los elementos no
relacionales no serían ya sus argumentos y la derivación colapsaría. Con base en las condiciones de interfaz,
entonces, proyectamos r. Tenemos ahora un nuevo ensamble, el del otro elemento no relacional:

24) {X, {r, X}}

r tiene ahora sus dos argumentos, a los cuales vincula en términos espaciales. El término completo se interpreta
como una relación espacial entre dos argumentos no relacionales, y esto ya es totalmente interpretable por el
nivel siguiente, supongamos, la Lista A o la interfaz que se inserte entre C-I y C(HL). Por lo tanto, el nodo r será
una fase en la instancia pre-sintáctica de C-I. Vemos que la determinación de etiquetas puede justificarse
perfectamente en términos de interfaz sin agregar algoritmos ni estipulaciones (como el hecho de que se
identifiquen a nivel de fase, como sostiene Gallego, 2010). Si bien es cierto que el etiquetado de una proyección
permite que se la tome como una unidad a efectos de computaciones futuras, el etiquetado en sí es un
requerimiento de interfaz.

En cuanto a la transferencia, podemos preguntarnos qué nos impide transferir {r, X}, el primer ensamble, antes
de que se ensamble el otro argumento no relacional. Para esto debemos volver a nuestra definición de fase, el
mínimo término totalmente interpretable en el nivel siguiente al que estemos considerando. En un marco de X-
barra, simplemente diríamos que {r, X} es una proyección intermedia (r´), por lo que es invisible para el
componente computacional y por eso no puede transferirse. No obstante, queremos simplificar la teoría, no
agregar estipulaciones, por lo que también tendremos que justificar el locus de transferencia en términos de
interfaz. La explicación retoma lo que venimos diciendo: si transferimos {r, X}, el valor procedimental de r se
pierde, ya que no estaría vinculando argumentos, y el nivel siguiente no podría manipular este objeto. De esto se
desprende que solamente proyecciones máximas pueden ser transferidas, ya que las propiedades de predicación
de un elemento se saturan en su proyección máxima (o, dicho en otros términos, la proyección máxima de un
34
predicado léxico puede ser definida como aquella en la que sus propiedades de predicación se ven saturadas,
siendo así pertinente para la extracción de explicaturas). Así, por ejemplo, no podemos transferir {v(*) {VP}}
porque el argumento externo, licenciado por el primitivo de [CAUSA] en v(*) quedaría fuera de la transferencia,
el objeto no sería legítimo a nivel de la explicatura por no ser totalmente interpretable. Debemos pensar qué
objeto semántico estamos transfiriendo, es decir, qué contribución a la explicatura hará la fase que consideremos.
El nodo r completo denota una relación conceptual espacial (física o metafórica) entre dos elementos, figura y
fondo. El ensamble del nodo T no denota una relación espacial ampliada, sino un evento que incluye una relación
espacial, por lo que la etiqueta correspondiente será T en {T, {r}}. En cuanto a R, introduce un primitivo de
[CAUSA] que licencia la presencia de un argumento externo, un iniciador del evento denotado por la estructura
etiquetada como T, y vista por lo tanto como una unidad a los efectos de las computaciones subsiguientes. La
Causa, entonces, se introduce como un elemento que tiene alcance sobre todo lo eventivo, y la proyección se
cierra cuando se ensambla el elemento no relacional que se interpretará como iniciador. Tenemos, así, los tres
nodos con sus etiquetas, justificadas en términos de interfaz: {R, {T, {r}}}. Cada uno de ellos puede ser una fase
en C-I si cumple con la definición, pero no podemos determinar eso a priori. Debemos considerar el constructo
específico, las propiedades de los elementos (a las que los espacios derivacionales pueden ser insensibles, pero
ciertamente no las interfaces), entre otras variables. Por eso, la composicionalidad es una noción central en
nuestro modelo, en contraposición a la versión más estipulativa con núcleos de fase predeterminados.

Después de la Transferencia:

Una pregunta relevante en este punto de la argumentación es qué pasa en C-I una vez que la derivación se ha
transferido por fases, cómo se da la reconstrucción. La cuestión es abordada en Gallego (2010) y referencias allí
citadas, aunque nosotros la trataremos de una forma diferente.

En primer lugar, la pregunta es: ¿existe una reconstrucción en las interfaces? La pregunta no es trivial, ya que si
una fase P se construye a partir de una sub-ordenación léxica, y sin acceso a los complementos de otros núcleos
de fase28, como se sostiene en la versión chomskyana del planteo, el hecho de que existan relaciones entre las
cascadas derivacionales no es algo que se siga lógicamente. Nuestra respuesta es que efectivamente hay
procedimientos de reconstrucción que permiten construir juicios a partir de las fases que llegan cíclicamente a la
interfaz. No es cierto que una fase se construya sin prestar ninguna atención a la fase anterior (ver nota 29), ya
que, incluso dentro de la propuesta chomskyana, P2 frecuentemente se construye con elementos extraídos de P1,
como en el caso del movimiento cíclico de constituyentes (que requiere ensamble a la periferia del núcleo de

28
De hecho, Chomsky (comunicación personal con Ángel Gallego) sostiene una versión fuerte de esta afirmación: “(…) [a
phase] P´ can be constructed without paying any attention to [the previous phase] P (…)” (Gallego, 2010: 71). Esta
afirmación, consideramos, no es incompatible con el sistema fuertemente derivacional de Epstein y Seely (de hecho, puede
avalarlo), y creemos que puede recibir las mismas críticas.

35
fase, a posiciones de Spec-externo). Lo mismo vale para la propuesta de Grohmann (tanto en inter- como en
intra-clausal Movement), por lo que las fases o dominios son claramente interdependientes. Esta dependencia es
la que justifica la importancia del phase edge en la teoría chomskyana como escape hatch, aunque su status sea
incierto: ¿la(s) posición(es) de especificador de v*P, por ejemplo, forman parte de la fase v* o de la fase C, con
la que se transfieren? La respuesta no es obvia, ni escapa a la estipulación. Nosotros prescindimos de los núcleos
de fase, por lo que el concepto mismo de edge se vuelve innecesario.

Un segundo problema es la naturaleza del procedimiento de reconstrucción. La opción más simple sería la mera
yuxtaposición, es decir, las fases se ordenan por orden de transferencia y el resultado es una forma “lineal” de
sub-derivaciones que se lee como un todo. Nosotros creemos que esta opción no puede ser correcta. En primer
lugar, de existir espacios derivacionales paralelos (como se argumenta en Uriagereka, 1999), esto implicaría
también operaciones de transferencia posiblemente paralelas, por lo que no sería posible pensar en un orden
lineal de transferencia. Además, hemos visto que la organización jerárquica es una característica de las
representaciones manipuladas por C-I, por lo que la linealidad quedaría descartada. Nuestra propuesta es que
cada sistema de actuación (A-P y C-I) efectúa operaciones post-transferencia por su cuenta con los objetos que
le hayan sido transferidos, que, como hemos dicho, no tienen por qué ser idénticos en ambas interfaces. En el
sistema que nos interesa particularmente, C-I, hay operaciones que se aplican a las unidades transferidas que van
mucho más allá de la mera yuxtaposición, de hecho, hay una reestructuración necesaria de los fragmentos de
información para la construcción de la explicatura que vincula elementos pertenecientes a distintas fases.
Algunos ejemplos de fenómenos que avalarían nuestra postura son los siguientes:

 Las relaciones Operador-variable.

 Los principios de Ligamiento (en su versión “interpretativa”, ver Chomsky, 1995: 151)

 Los fenómenos de Control (incluso dentro de la Movement Theory of Control de Hornstein)

 Las elipsis de elementos nominales

Estos ejemplos pueden subsumirse a fenómenos de coindización, en los que se asigna el mismo índice
referencial a dos elementos incluso a través del límite de lo que en el nivel de la sintaxis en sentido restringido
era una fase. Lo mismo sucede con la teoría del movimiento como copia, cualquier movimiento que traspase el
límite de una fase requerirá una operación en FL que vincule las copias y las reconozca como ocurrencias del
mismo elemento (ver infra). Esta operación de relación se simboliza por medio de índices. C-I, entonces, crea
relaciones estructurales, no lineales, mediante los procedimientos “sintácticos” con los que cuenta (la sintaxis en
sentido amplio de la que hablábamos más arriba) a partir de las instrucciones dadas por la sintaxis (la FL de TR).
En ocasiones, las instrucciones no son lo suficientemente específicas como para generar una estructura única, y

36
tenemos, por ejemplo, casos de ambigüedad en el alcance relativo de elementos cuantificados. Analicemos la
siguiente oración en estos términos:

25) Tres terroristas realizaron cinco atentados

La propuesta de Hornstein (1999) para estos casos es que hay movimientos en FL que establecen relaciones de
alcance (“scope”) relativo entre los cuantificadores. Estos movimientos, que se efectúan independientemente de
la forma materializada de la oración total (ya que ocurren en FL, no tienen efecto en FF), dejan copias, y las
relaciones que se establezcan entre los elementos movidos y las copias determinan la interpretación. En
principio, la elección de la copia pertinente no estaría restringida en el modelo (para nosotros, desde luego, la
restricción es la relevancia óptima). Las estructuras posibles de (25) son las siguientes:

26) a. [TP Tres terroristas [vP cinco atentados [vP tres terroristas [VP realizaron cinco atentados]]]]
b. [TP Tres terroristas [vP cinco atentados [vP tres terroristas [VP realizaron cinco atentados]]]]

En (a), la interpretación sería distributiva, ya que [tres terroristas] tiene alcance sobre [cinco atentados]. Una
paráfrasis posible sería (27):

27) ∀(x) | terrorista(x), cometer(x, cinco atentados)

Es decir, tenemos 15 atentados en total.


En (b), por el contrario, la configuración determina que [cinco atentados] tiene alcance sobre [tres terroristas],
por lo que la interpretación es conjuntística: “Hay cinco atentados en total, tales que tres terroristas los
cometieron”.
El modelo de movimiento de cuantificadores de Hornstein es un ejemplo de las operaciones de reconstrucción
que deben efectuarse. Si bien creemos que es una propuesta objetable por varias razones29, no deja de ser un
buen ejemplo de que C-I crea relaciones estructurales entre los “fragmentos derivacionales” (entre las fases)
guiado por la búsqueda de la relevancia óptima, y no lee lineal y pasivamente los fragmentos transferidos sin
operar sobre ellos. [Más recientemente, en el modelo explicado en Tokens vs. Copies: Displacement Revisited
(2015), el espacio de trabajo nunca es vaciado por completo: quedan ‘migajas’ derivacionales, sub-derivaciones
que se mantienen parcialmente activas. Lisa Feigenson (2011: Objects, Sets, and Ensembles) utiliza el término
‘set’ para hacer referencia a objetos cognitivos que presentan estas características: ‘set-binding manages to evade

29
Por ejemplo, Hornstein sostiene que el desplazamiento de constituyentes a la posición de Spec- de una CF que domine a
VP (vP o TP) se da para que éstos cotejen un rasgo de Caso en relación Spec-Head, lo cual es propio del primer
Minimalismo pero no es compatible con Matching Theory, en la que las relaciones relevantes no son Spec-Head sino
Sonda-Objetivo, y el cotejo puede darse a distancia.

37
the three-item limit of WM [Working Memory] while still preserving access to individual representations of the
sets’ contents. This appears to rely on the hierarchical reorganization of items within memory’. La presente
propuesta combina objetos sintácticos entendidos como ‘objects’ y como ‘sets’, en un modelo computacional
dinámico que permite que sub-derivaciones sean almacenadas como uno u otro dependiendo de las propiedades
de las unidades que contengan (e.g., cuantificadores que de otra forma serían vacuos, operadores, etc.)]

En cuanto a la elipsis de elementos nominales, creemos que es una operación compleja, en la que se
involucra tanto a la interpretación en FF como en FL y que requiere computaciones en ambos niveles. Esta
operación consiste en el borrado de los rasgos fonológicos de un elemento si hay otro elemento nominal con la
misma referencia (relevante en FL) y la misma matriz fonológica (relevante en FF) en la estructura. Por ejemplo:

28) Juan anotó un gol y Juan lo festejó.

No podemos sostener que hay Movimiento, sino que hay dos ocurrencias coindizadas de [Juan] en la estructura
de coordinación. Los rasgos fonológicos de la segunda ocurrencia (en orden lineal) pueden borrase (es decir,
quedar como una CV) si hay un elemento en una fase posterior con los mismos rasgos, una “repetición” del
elemento léxico (en otras palabras, otro token –“muestra”- del elemento). El borrado de los rasgos fonológicos
del segundo elemento estaría legitimado por la ocurrencia del mismo elemento léxico en una fase posterior en
tiempo derivacional. Es importante no confundir esta operación de borrado, que sería post-transferencia, con el
borrado de las copias resultado del Movimiento de constituyentes. En este caso, estamos hablando de
ocurrencias del mismo elemento, no de distintas ocurrencias de distintos tokens de un elemento léxico con los
mismos rasgos. En el caso del borrado de copias, habría un solo type, y la relación entre las ocurrencias (tokens)
de ese elemento están regidas por determinados principios de la gramática (en GB, el PCV y el criterio temático,
por ejemplo). En cuanto a la elipsis, habría rasgos procedimentales de tópico en juego: no necesitamos
materializar el segundo [Juan] porque el elemento es tópico (en el sentido de tema) en ambas cláusulas, y la
aparición de una CV [Juan] en la segunda cláusula facilita la manutención del tópico a nivel inferencial en la
recepción e interpretación del mensaje. Nótese que si se materializan ambos tokens, la búsqueda de la relevancia
óptima lleva a interpretar una referencia disjunta, por lo que cada cláusula tendría su propio tópico, y los
elementos no tendrían los mismos rasgos, no serían, entonces, tokens de un mismo elemento sino distintos
elementos en todos los respectos pertinentes a la construcción de la explicatura. [Para una versión desarrollada y
explícita de este sistema, ver Tokens vs. Copies (2015)]

En resumen, la transferencia no es el fin de la derivación ni de las operaciones computacionales, sino


que cada sistema externo efectúa determinados procedimientos sobre las cascadas derivacionales que le llegan, a
partir de rasgos (desde nuestro punto de vista, procedimentales) presentes en la sintaxis que de alguna forma pre-
sub determinan estas operaciones, al tiempo que las licencian. Procesos análogos se darían luego de toda
38
operación de transferencia. Se ve que componencialidad y licenciamiento, junto con economía, son conceptos
centrales en nuestra teoría no sólo del funcionamiento de la Facultad del Lenguaje, sino, en un sentido más
amplio, de las interacciones entre los módulos mentales.

Una “nota tardía” sobre Late Insertion:

Las reformas de la arquitectura de la gramática aquí esbozadas permiten dar cuenta de un fenómeno que
ha sido observado desde las perspectivas de descomposición léxica: aparentemente, la agrupación de los rasgos
en nodos terminales (“morfemas”, en términos de Morfología Distribuida) está de alguna forma “limitada” por la
disponibilidad en una lengua de ítems de Vocabulario para insertar en esos nodos30. Así, por ejemplo, la ausencia
de incorporación de Manera en Movimiento en español o Dirección sobre Movimiento en inglés estaría dada por
la ausencia de ítems de Vocabulario que puedan insertarse en el nodo terminal pertinente. El parámetro que
determina esta tipología lingüística estaría relacionado con la Lista B, de naturaleza socio-histórica. El hecho de
que los ítems de Vocabulario, que se insertan tardíamente (Late Insertion) condicione la formación de clusters
de rasgos sería una violación a la estricta localidad del sistema computacional Chomskyano, ya que implicaría
un evidente look ahead: el componente que agrupe los rasgos en morfemas terminales tendría que “mirar
adelante”, a la Lista B, y ver si hay un ítem que, aunque subespecificado (underspecified), pueda insertarse y
materializar el nodo en cuestión. En nuestro modelo, esto es perfectamente lícito. Nosotros consideramos que, si
una lengua permite la materialización de un determinado rasgo, el rasgo debe materializarse, sea en el nodo
que compone originalmente o en el nodo más cercano que cuente con un correspondiente elemento en la Lista B
lo suficientemente especificado como para insertarse y materializar la mayor cantidad posible de rasgos. Un
componente (cualquiera sea), hemos afirmado explícitamente, debe tener acceso a las condiciones del
componente siguiente, para así producir un objeto legible. Por lo tanto, si la sintaxis ha de presentar al
componente fonológico una serie de nodos “materializables”, y si además consideramos la condición anterior
(que bien podría considerarse un “principio”), el componente computacional debe necesariamente tener acceso a
la Lista B para agrupar los rasgos de forma tal que puedan materializarse. Suponemos que los rasgos pueden
presentarse en clusters, o bien dispersos (scattered) (Giorgi y Pianesi, 1996), dependiendo de las posibilidades
de materialización y de consideraciones globales de economía en la derivación: un determinado conjunto de
rasgos puede proyectarse como un único nodo o bien aparecer distribuidos en proyecciones diferentes. El
número de proyecciones se define “(…) according to economy considerations, that is, the shortest derivation
compatible with the initial array is selected. (Giorgi y Pianesi, 1996: 141-142). En otras palabras, si en una

30
La propuesta se contrapone a los primeros planteos de Morfología Distribuida, ver, p.ej. Halle y Marantz (1993: 121):
“(…) We assume that the Vocabulary of a language plays no role in the creation of terminal nodes at DS. That is, the
particular set of universal and/or language-particular semantic and syntactic features chosen for a terminal node is not
constrained by whether or not that set of features appears in any Vocabulary entry in the language. The bundles of
morphosyntactic and semantic features that constitute morphemes at DS, SS, and LF are more or less freely formed.(…)”.

39
lengua determinada existe una forma fonológica sintética (i.e, un solo ítem de vocabulario) y una analítica (i.e,
perifrástica) para materializar un cierto número de rasgos (por ejemplo, [Movimiento] y [Manera] o
[Movimiento] y [Dirección]), la derivación más económica será la sintética, que será, por lo tanto, la preferida
por defecto. Los rasgos, además, pueden materializarse en nodos diferentes de aquellos en los que surgen, si las
posibilidades de materialización lo requieren. Así, podemos dar cuenta no sólo de la diferencia tipológica entre
lenguas de marco verbal y de marco satelital sino otros fenómenos, más específicos de ciertas lenguas, como el
selosismo en español:

29) a. Lesj envié el paquetei a mis parientesj.

b. Sej losi envié.

En este caso, dado que [se] es incapaz de manifestar flexión de número, y hay un rasgo [plural] en el nodo
terminal, este rasgo actúa como un afijo débil, buscando al host más cercano (en una Configuración Mínima, en
términos de Rizzi, a nivel de fase en nuestros términos, pero siempre respetando Minimalidad) al que
corresponda un ítem de la Lista B que permita materializarlo. El clítico [lo] es un elemento que permite
materializar la flexión de número, por lo que podemos pensar en un feature scattering, o más bien, feature
sharing (Ouali, 2008, 2010) a nivel de FF para respetar el principio de Materialización enunciado más arriba.
Estos fenómenos entran en nuestro marco de trabajo de forma natural, sin estipulaciones adicionales.

Ventajas:

 Se cambia el concepto de fase por el de fase en un nivel, lo que permite utilizar el concepto de fase (por
lo tanto, el de “reducción de la carga computacional” y “localidad en las operaciones”) en
potencialmente cualquier módulo mental que esté en interacción con algún otro sistema al que tenga que
proveer información. Si consideramos que el cerebro-mente está compuesto por módulos relativamente
independientes pero interconectados, todos regidos por principios de economía, nuestra concepción de
fase podría llevar a una concepción más uniforme de la estructura y el funcionamiento del cerebro-mente
en el marco de la modularidad masiva. Recuperamos, mediante el concepto de fase, la noción de
frugalidad en las computaciones, lo cual es provechoso tanto a nivel computacional como biológico, ya
que aumenta la plausibilidad neuronal del modelo (ver Krivochen, en preparación). En tanto está
determinada por las condiciones de legibilidad de los sistemas que interactúan, nuestra definición de fase
puede calificarse incluso de “principled”, siguiendo a Chomsky, (2005b: 10): “We can regard an
explanation of properties of language as principled insofar as it can be reduced to properties of the
interface systems and general considerations of computational efficiency and the like.”. Intentamos,
mediante nuestra propuesta, ganar un cierto insight respecto del tercer factor en el diseño de las

40
facultades cognitivas (Chomsky, 2005b): principios no específicos a la facultad del lenguaje. Este
factor incluiría:

“(a) principles of data analysis that might be used in language acquisition and other
domains;( b) principles of structural architecture and developmental constraints that
enter into canalization, organic form and action over a wide range, including principles
of efficient computation (…)” Chomsky, 2005b: 6. Destacado nuestro.

 Se evita la necesidad de postular “reglas de correspondencia” para dar cuenta de la interacción entre
módulos mediante representaciones simbólicas (Jackendoff, 1997: 83). Si bien estamos de acuerdo con
que cada módulo posee sus propios primitivos (aunque algunos sean pertinentes a más de una facultad),
sostenemos la universalidad de los principios de combinación (Jackendoff, Op. Cit: 41), básicamente, la
operación Ensamble. Las interacciones (i.e, la transferencia de información) entre los módulos están
únicamente restringidas por las respectivas condiciones de legibilidad.

 Se elimina la discusión sobre cuáles sean los “núcleos de fase”, lo que permite evitar muchas de las
objeciones que se le han hecho al concepto de fase (ver supra) y simplificar el sistema al eliminar
también la necesidad de recurrir a la parametrización para dar cuenta del comportamiento desigual de
determinadas proyecciones (como TP) en distintas lenguas. (Ver Gallego, 2007, 2010)

 Se elimina, por consiguiente, la adjunción a la periferia del núcleo para extraer un objeto de una fase y
demás artilugios teóricos (que vienen desde el modelo de Barreras, Chomsky 1986), que consideramos
altamente estipulativos.

 Se evita la sobregeneralización de la condición de fase (phasehood) de Epstein & Seeley (2002) cuando
sostienen que “(…) there is no need for an independent account of which categories are phases (i.e, vP
and CP) and which are not, and why. All syntactic objects are phases (…)” (destacado nuestro), ya que
no todo OS es una fase, sólo aquel que sea totalmente interpretable en el siguiente nivel. Digamos que, a
priori, no podemos anticipar nada, salvo, quizás, que un OS dado (un término) es una fase potencial en
un nivel L, pero si lo es o no depende de la derivación en la que se inserte, del constructo en el que
aparezca en un caso particular. La condición de fase es, en nuestro modelo, composicional y dinámica.

Bibliografía:

Abney, S.P. (1987) The English Noun Phrase and its Sentential Aspect, PhD. dissertation, MIT.

Boeckx, C. (2010) Defeating Lexicocentrism. Ms. LingBuzz.


41
Boeckx, C. y K. Grohmann (2004a) Barriers and Phases: Forward to the Past? En Tools in Linguistic Theory,
2004. Budapest.

(2004b) Putting Phases in Perspective. En Tools in Linguistic Theory, 2004.


Budapest.

Chomsky, N.:(1965) Aspectos de la Teoría de la Sintaxis. Barcelona, Gedisa.

(1986) Barriers. Cambridge, Mass. MIT Press.

(1995) The Minimalist Program. Cambridge, Mass. MIT press.

(1998) Minimalist Inquiries. The Framework. MIT Occasional Papers in Linguistics 15.

(1999) Derivation by Phase. Manuscrito comentado por Juan Uriagereka.

(2002) Indagaciones minimalistas. En Chomsky, Catalá, Piera, et al. (2002). El lenguaje y la


mente humana. Barcelona, Ariel.

(2004) Beyond Explanatory Adequacy. En Belleti (ed.) “Structures and Beyond”, Oxford, OUP.

(2005a) On Phases. En C. Otero et al. (eds.), Foundational Issues in Linguistic Theory,


Cambridge (Mass.): MIT Press.

(2005b) Three Factors in Language Design. Linguistic Inquiry Vol. 36 n° 1. MIT press.

(2007) Approaching UG from below. Ms. MIT.

Embick, D. y R. Noyer (2004) Distributed Morphology and the Syntax-Morphology Interface. Borrador del 25
de Octubre de 2004. Impreso en Ramchand, G. y Reiss, C. eds., “The Oxford Handbook of
Linguistic Interfaces”, Oxford University Press.
Escandell Vidal, M.V. y M. Leonetti (2000), Categorías conceptuales y semántica procedimental. En “Cien años
de investigación semántica: de Michél Bréal a la actualidad” Tomo I, Madrid, Ediciones clásicas,
363-378.
Epstein, S. y T. Seeley (2002) Rule Applications as Cycles in a Level Free Syntax. En “Derivation and
Explanation in the Minimalist Program”, ed. S.D. Epstein & T.D. Seeley, 65-89. Oxford: Blackwell.
Fábregas, A. (2005) La definición de la categoría gramatical en una morfología orientada sintácticamente:
nombres y adjetivos. PhD Thesis, Universidad Autónoma de Madrid.
Feigenson, L. (2011) Objects, Sets, and Ensembles. In Dehaene, Stanislas and Elizabeth Brannon (eds.) Space,
Time and Number in the Brain: Searching for the Foundations of Mathematical Thought. London: Elsevier. 13-
22.

Gallego, A. (2007) Phase Theory and Parametric Variation. PhD Thesis, Universitat Autónoma de Barcelona.
(2010) Phase Theory. Amsterdam, John Benjamins.
Gallego, Á. y J. Uriagereka (2006) Sub-Extraction from Phase Edges, paper presented at Edges in Syntax,
Cyprus College, Nicosia (Cyprus).
42
Giorgi, A. y F. Pianesi (1996) Verb Movement in Italian and Syncretic Categories. En “Probus”, 8, 137-160.
Grohmann, K. K. (2003a) “Prolific Domains. On the Anti-Locality of Movement Dependencies”. Amsterdam:
John Benjamins.
(2003b) Successive Cyclicity under (Anti-)Local Considerations. Syntax 6, 260-312.
(2004) Prolific Domains in the Computational System. En Actas de JEL 2004: Domains.
Nantes: AAI, 211-216.
Hale, K. y J. Keyser (1993) On Argument Structure and the Lexical Expression of Syntactic Relations. En Hale y
Keyser (1993) “The View from Building 20”. Cambridge, Mass. MIT Press.
Hornstein, N. (1999) Minimalism and Quantifier Raising. En Epstein y Hornstein (eds.) “Working Minimalism”,
Cambridge, Mass. MIT Press.
Jackendoff, R. (1997) The Architecture of the Language Faculty. Cambridge, Mass. MIT Press.
Jackendoff, R. y F. Lerdahl (2004) The Capacity for Music: What Is It, and What´s Special About It? En
Cognition, 2004.
Kayne, R (1994). The Antisymmetry of Syntax, Cambridge, Mass. MIT Press.

Krivochen, D. (2010) Referencialidad y Definitud en D. Un análisis desde la convergencia entre el Programa


Minimalista y la Teoría de la Relevancia. Inédito.
(2015a) On Phrase Structure building and Labeling algorithms: towards a non-uniform theory of syntactic
structures. The Linguistic Review 32(3). 515-572.

(2015b) Types vs. Tokens: Displacement Revisited. Studia Linguistica. DOI: 10.1111/stul.12044

Larson, R. (1988) On the Double Object Construction. Linguistic Inquiry 19: 335-391.

Leonetti, M. y M. V. Escandell Vidal (2004) Semántica conceptual, semántica procedimental, en Actas del V
congreso de Lingüística General, Madrid, Arco.

Mateu Fontanals, J. (2000a) Why Can´t We Wipe The Slate Clean? A Lexical Syntactic Approach to Resultative
Constructions. Universitat Autónoma de Barcelona. Departament de Filología Catalana.

(2000b) Univesals of Semantic Construal for Lexical Syntactic Relations. Universitat


Autónoma de Barcelona. Departament de Filología Catalana.
Marantz, A. (1997) No Escape from Syntax: Don’t Try Morphological Analysis in the Privacy of Your Own

Lexicon. En A. Dimitriadis, L. Siegel, C. Surek-Clark, and A. Williams, eds., Proceedings of the 21st Penn
Linguistics Colloquium, UPenn Working Papers in Linguistics, Philadelphia.

(2006) Phases and Words. Ms. MIT.

43
Moro, A. (2000). Dynamic Antisymmetry. Movement as a Symmetry Breaking Phenomenon, Cambridge (Mass.):
MIT Press.
Noyer, R (1998) Frequently Asked Questions about DM. University of Pennsylvania.

Nunes, J. (1995) The Copy Theory of Movement and Linearization of Chains in the Minimalist Program. PhD
Thesis, Universidad de Maryland.

Panagiotidis, P. (2008) Categorial Features of Functional Heads. Universidad de Chipre.

(2010) Categorial Features and Categorisers. Borrador del 31 de marzo de 2010. Universidad
de Chipre.

Pesetsky, D. (1995) Zero Syntax. Experiencers and Cascades. Cambridge (Mass.): MIT Press.

Saddy, D. (2016) Syntax and Uncertainty. Ms. University of Reading.

Sperber, D. y D. Wilson (1986a) Sobre la definición de Relevancia. En Valdés Villanueva, Luis Ml. (Comp.)
(1991) En búsqueda del significado. Madrid, Tecnos.

(1986b/1995) Relevance: Comunication and Cognition. Oxford. Blackwell.

Stamboni, J. L. (2008) Las oraciones existenciales. Su significado y su realización sintáctica en inglés y en


castellano. Tesis de Maestría. Facultad de Humanidades y Artes, UNR.

Uriagereka, J. (1998) Piez y Cabeza. Madrid, Visor.

(1999) Multiple Spell-Out. En N. Hornstein & S. Epstein (eds.), Working Minimalism,


Cambdridge (Mass.), MIT Press, 251-282. Reprinted in Uriagereka (2002) Derivations. MIT Press.

Varas San Vicente, M. A. (2008) Categorías funcionales, categorías léxicas y rasgos. Un intento de
simplificación. En DICENDA, Cuadernos de Filología Hispánica, vol. 26.

Webelhuth, G. (ed.) (1995) Government and Binding Theory and the Minimalist Program. Oxford. Blackwell.

Wilson, D. y D. Sperber (2003) La teoría de la Relevancia, en Revista de Investigación Lingüística, Vol. VII-
2004. Págs. 237-286.

Yus, F. (2010) Relevance Theory. In: The Oxford Handbook of Linguistic Analysis. Eds. B. Heine and H.
Narrog. Oxford: Oxford University Press, 679-701.

44

También podría gustarte