Está en la página 1de 9

Ley de Impuesto sobre la Renta

El impuesto sobre la renta, como impuesto directo, se ha presentado como el símbolo de


la justicia fiscal al gravar con mayor precisión la capacidad contributiva de los particulares,
a mayor ingreso mayor impuesto. También se ha considerado como el instrumento
indispensable para llevar a cabo una justa distribución de la riqueza ya que el monto del
impuesto se determina conforme a una tarifa progresiva. La ley de la materia ha sufrido
innumerables reformas a fin de evitar la elusión en el pago de este impuesto e
incrementar su recaudación en beneficio de aquellos con menos recursos económicos.

Es importante recordar que la Ley del impuesto sobre la Renta (LISR) grava los ingresos
que obtienen las personas físicas y las morales, así, el artículo 1o. de la misma ley establece
que tratándose de las personas físicas, éstas serán sujetas del impuesto sobre la renta
(ISR), cuando sean residentes en México por todos sus ingresos cualquiera que sea la
ubicación de la fuente de riqueza de donde provengan. Al respecto, el artículo 106, primer
párrafo, de la LISR señala que están obligadas al pago del ISR establecido en el Título IV
“De las personas físicas”, las personas físicas residentes en México por los ingresos que
obtengan en efectivo, en bienes, devengado cuando en los términos del citado título se
señale, en crédito, en servicios en los casos que señale la (LISR), o de cualquier otro tipo;
sin embargo, es importante que la persona física ubique el capítulo en el que pagará sus
impuestos..

Los ingresos por enajenación de bienes” aplica para aquellas personas físicas que no se
dedican a la enajenación de bienes como una actividad preponderante o en forma habitual
y con un carácter de especulación comercial. El artículo 146 de la LISR
señala que se consideran ingresos por enajenación de bienes los que deriven de los casos
previstos en el Código Fiscal de la Federación (CFF).

Al respecto, el artículo 14 del CFF establece que, entre otros, se entiende por enajenación
de bienes “toda transmisión de propiedad”, aun en la que el enajenante se reserve el
dominio del bien enajenado.

Asimismo, el segundo párrafo del artículo 146 de la LISR establece que se considerará
como ingreso el monto de la contraprestación obtenida, inclusive en crédito, con motivo de
la enajenación; cuando por la naturaleza de la transmisión no haya contraprestación, se
atenderá al valor de avalúo practicado por persona autorizada por las autoridades fiscales.

El artículo 146, último párrafo, de la LISR señala que no se considerarán ingresos por
enajenación, los que deriven de la transmisión de propiedad de bienes por causa de muerte,
donación o fusión de sociedades ni los que deriven de la enajenación de bonos, de valores
y de otros títulos de crédito, siempre que el ingreso por la enajenación se considere interés
en los términos del artículo 9o. de la LISR.
METODOLOGÍA BOX – JENKINS
La publicación de G.P.E Box y G.M Jenkins “Times Series Análisis: Forecasting and Control” en la
década de los 70’s generó un nuevo conjunto de herramientas de predicción, cuyo procedimiento
se llamó metodología Box- Jenkins; también técnicamente conocida como metodología ARIMA

Este método de predicción se basa en el análisis de las propiedades probabilísticas o estocásticas de


las series de tiempo económicas en sí mismas, pues una variable Yt puede se expresada como una
función de sus valores pasados, razón por la que algunas veces se les denomina modelos ateóricos,
donde no existe relación causal alguna a diferencia de los modelos clásicos de regresión.

Objetivo El objetivo de la metodología Box – Jenkins es identificar y estimar un modelo estadístico


que puede ser interpretado como generador de la información de la muestra. En este sentido, si el
modelo estimado es usado para la predicción debe suponerse que las características de la serie son
constantes en el tiempo, especialmente para los periodos futuros. Por lo tanto, la predicción se
efectúa sobre una base válida considerando que el modelo es estacionario o estable. Procedimiento
Las etapas que se deben seguir en la elaboración de un modelo ARIMA con fines predictivos son las
siguientes:

Etapa 1. Identificación. Esta fase consiste en detectar el tipo de proceso estocástico que ha
generado los datos. Esto significa encontrar los valores adecuados de p, d y q del modelo ARIMA.
Las herramientas fundamentales en la identificación son el correlograma muestral y el correlograma
parcial muestral.

Es importante tener en cuenta que antes de usar los criterios de identificación FAC y FAP se debe
lograr una serie estacionaria. Para ello, se efectúan las pruebas de estacionariedad a la serie original.
En caso de que esta no sea estacionaria, la variable puede diferenciarse d veces hasta que ésta sea
estacionaria. Mediante este procedimiento se identifica el orden de integración d del modelo
ARIMA. A continuación se presentan los patrones teóricos de la FAC y FAP según el tipo de modelo,
los cuales son útiles en la identificación de p y q del modelo ARIMA:
Cabe anotar, que en el procedimiento de identificación de p y q, se consideran aquellos rezagos
estadísticamente significativos, por lo cual no es necesario incluir rezagos intermedios hasta p o q si
éstos no son significativos.

Etapa 2. Estimación

Este último procedimiento utiliza un algoritmo para minimizar la suma de los cuadrados de los
residuos, comenzando con algún valor inicial de los parámetros del modelo. En general el algoritmo
busca si otro vector de parámetros mejora el valor de la función objetivo, produciendo iteraciones
sucesivas hasta alcanzar la convergencia. Los paquetes estadísticos efectúan este procedimiento a
través de rutinas de computador en las que se tienen definidos los parámetros iniciales, así como
los criterios de convergencia.

Teóricamente el método de mínimos cuadrados ordinarios en la medida que las muestras sean
grandes posee propiedades asintóticas, esto quiere decir que se generan estimadores
asintóticamente consistentes y convergen a una distribución normal, por lo que las pruebas
hipótesis convencionales sobre los parámetros del modelo serán válidas. La estimación del modelo
ARMA(p,q) se efectúa para la serie que se ha comprobado es estacionaria. En la práctica los modelos
más comunes son los autorregresivos. Hamilton cita que muchas de las series económicas se pueden
representar por medio de un modelo AR(1).

Sin embargo, de acuerdo con el teorema de descomposición de Wold, el modelo ARMA debería ser
la primera opción, teniendo en cuenta que la inclusión de términos adicionales MA puede mejorar
las propiedades estadísticas de la estimación. Los modelos MA son poco comunes y en la práctica a
todos los modelos se les incorpora la constante o intercepto. Debido a que en la práctica es difícil
identificar con exactitud el orden p y q del modelo ARMA, se suelen plantear dos o más modelos
plausibles, que luego de ser estimados son útiles para la elección del más apropiado.

Etapa 3. Verificación de Diagnóstico. En esta etapa ser busca evaluar si el modelo estimado se ajusta
a los datos en forma razonablemente buena, ya que es posible que exista otro modelo ARMA que
también lo haga. A esta etapa también se le conoce como validación o comprobación de diagnóstico
en la cual se efectúan algunas pruebas antes de hacer uso del modelo para la predicción. La
validación o verificación incluye el análisis de los coeficientes o parámetros del modelo, la
evaluación de la bondad de ajuste y análisis de los residuos. a) Análisis de los coeficientes Se desea
que el modelo ARMA(p,q) estimado cumpla con las condiciones de estacionariedad e invertibilidad
y que exista significancia estadística en los rezagos incorporados. Teniendo en cuenta las
propiedades asintóticas de la estimación por mínimos cuadrados ordinarios, los estadísticos t de
student pueden utilizarse para probar significancia individual de cada uno de los coeficientes hasta
p y q.

b) Bondad de Ajuste I. R2 Ajustado Debido a que en la fase de identificación se postula más de un


modelo tentativo, en el diagnóstico o validación es importante identificar cuál de los modelos
presenta una mejor bondad de ajuste. Una herramienta para ello es el R2 ajustado, el cual es
corregido por los grados de libertad resultantes de introducir parámetros adicionales en el modelo.
Por esta razón es más aconsejable el R2 ajustado que el R2 , ya que el primero en cierto modo tiende
a evitar la sobreparametrización. Sin embargo, el R2 ajustado tiene validez solamente cuando se
comparan modelos en los que se han tomado el mismo número de diferencias. Esto se sustenta en
que la varianza total depende del número de diferencias que se haya tomado. Debido a esta
limitación del R2 se han propuesto medidas alternativas en las que se destacan el Akaike
Information Criterion – AIC o el Schwartz Criterion – SC.

II. AIC y SC El AIC y SC son herramientas estadísticas útiles para elegir el número adecuado de rezagos
p y q del modelo ARMA.

Ambos criterios se basan en la utilización de la suma de los cuadrados de los errores, buscando
minimizarla a partir de diversas combinaciones de p y q. A esta prueba se le conoce como la prueba
de parsimonia. La expresión del AIC también llamado Criterio de Información Bayesiana – BIC es la
siguiente:

Donde k es el número agregado de parámetros incluido el intercepto si se ha incorporado en la


estimación, es decir k = p + q + 1, y n es el número utilizable de observaciones. Al efectuar el
diagnóstico se desea que tanto el AIC y el SC den lo menor posible al comparar modelos con diversas
combinaciones de p y q. En este proceso es importante considerar que los rezagos adicionales deben
ser significativos, puesto que si éstos no los son aumenta k sin que la suma de cuadrados de los
errores se reduzca.

En la literatura se cita que el AIC tiende a sobreestimar el número de rezagos, por lo que se planteó
el SC. c) Análisis de los residuos El supuesto de que los errores del modelo son un proceso puramente
aleatorio (media cero, varianza constante y no correlación serial) debe verificarse. Para ello es
posible efectuar varios análisis: I. Gráfico de los residuos Consiste en una gráfica de los errores en
función del tiempo.

La gráfica puede revelar a simple vista si por ejemplo es admisible la hipótesis de varianza constante
o correlación.

II. Correlograma de los residuos y el estadístico Ljung – Box. Se evalúa con el correlograma que los
errores del modelo son ruido blanco. En caso de no serlo, es indicativo de que hay alguna estructura
remanente del modelo que no se logró capturar. La manera de efectuar la prueba es mediante la
inspección del comportamiento del correlograma muestral a medida que aumenta el número de
rezagos y a través del estadístico Ljung – Box – LB. El estadístico es utilizado para efectuar una
prueba de hipótesis de significancia conjunta, la cual se describe a continuación:
III. El Histograma.
Generalmente se acostumbra probar que los errores del modelo siguen distribución normal. Para
ello, se construye el histograma de frecuencias. La prueba de normalidad se efectúa con el
estadístico Jarque Bera.
En caso de que el modelo cuente con errores autocorrelacionados se volverá a la etapa de
identificación con el objeto de reformular el modelo hasta que los errores sigan un proceso
puramente aleatorio.
Etapa 4. Pronóstico. Para pronosticar un periodo futuro a partir del modelo seleccionado; es decir
aquel que es “el mejor” resultante de las etapas anteriores, es importante considerar si la variable
original fue diferenciada. Síntesis de la Metodología Box – Jenkins
1. Identificación: Utilizar: FAC estimada FAP estimada
2. Estimación: Usar: Mínimos cuadrados ordinarios lineales Mínimos cuadrados ordinarios no
lineales.
3. Verificación de Diagnóstico: Evaluar: Los coeficientes (estacionariedad, invertibilidad y
significancia estadística). La bondad de ajuste (R2 ajustado, AIC y SC). Los residuos (significancia
conjunta y normalidad)
4. Pronóstico. Indicar el periodo de predicción.
Justo a Tiempo (Just in time)

La metodología Justo a Tiempo es una filosofía industrial que puede resumirse en fabricar
los productos estrictamente necesarios, en el momento preciso y en las cantidades
debidas: hay que comprar o producir solo lo que se necesita y cuando se necesita

Definición

La fabricación justo a tiempo significa producir el mínimo número de unidades en las


menores cantidades posibles y en el último momento posible, eliminando la necesidad de
inventarios.

Es una filosofía que define la forma en que debería gestionarse el sistema de producción.
Es una filosofía industrial de eliminación de todo lo que implique desperdicio o despilfarro
en el proceso de producción desde las compras hasta la distribución. Despilfarros, en este
contexto, significa todo lo que no añada valor al producto. Es una metodología para alcanzar
la excelencia en una empresa de manufactura, basada en la eliminación continua de
desperdicios como inspecciones, transportes entre maquinas, almacenajes o
preparaciones. Precisamente la denominación de este método productivo nos indica su
filosofía de trabajo. las materias primas y los productos llegan justo a tiempo, bien para la
fabricación o para el servicio al cliente.

El sistema de producción just-in-time (JIT) es un sistema de adaptación de la producción a


la demanda que permite la diversificación de productos incrementando el número de
modelos y de sus unidades. Uno de sus principales objetivos es reducir stocks,
manteniendo estrictamente los necesarios (métodos de stock base cero), lo que supone un
cambio en la mentalidad del proceso productivo, de la distribución y de la comercialización
de los productos, buscando alcanzar ventajas sinérgicas en la cadena de producción-
consumo.

Seis Sigma

Originalmente diseñada y utilizada por Motorola, el concepto Seis Sigma ha trascendido la


empresa que le da origen, convirtiéndose en una nueva filosofía administrativa con amplia
divulgación mundial, sobre la cual se ha desarrollado cantidad de elementos, más allá de
los que sus creadores originales pensaron (concepto cinturón, verde, negro etc.). El Seis
Sigma es un parámetro cuya base principal es la desviación estándar y su enfoque
es reducir la variación y/o defectos en lo que hacemos.
El concepto Seis Sigma ayuda a conocer y comprender los procesos, de tal manera que
puedan ser modificados al punto de reducir el desperdicio generado en ellos. Esto se verá
reflejado en la reducción de los costos de hacer las cosas, a la vez que permite asegurar
que el precio de los productos o servicios sean competitivos, no mediante la reducción de
ganancias o reducción de los costos de hacer bien las cosas, sino de la eliminación de los
costos asociados con los errores o desperdicios.
La filosofía Seis Sigma busca ofrecer mejores productos o servicios, de una manera cada
vez más rápida y a más bajo costo, mediante la reducción de la variación de cualquiera de
nuestros procesos. Aunque a muchas personas les ha costado entender, una de las
grandes enseñanzas del Dr. Deming fue buscar el control de variación de los procesos lo
cual es medido por medio de la desviación estándar. Decía el Dr Deming: “el enemigo de
todo proceso es la variación, por lo que es ahí en donde debemos concentrar el esfuerzo
hacia de la mejora continua”, pero sobre todo porque “La variación es el enemigo de la
satisfacción de nuestros clientes”.
Poka Yoke
Poka-Yoke es una herramienta procedente de Japón que significa “a prueba de errores”.
Lo que se busca con esta forma de diseñar los procesos es eliminar o evitar equivocaciones,
ya sean de origen humano o automatizado. Este sistema se puede implantar también para
facilitar la detección de errores.
Si nos centramos en las operaciones que se realizan durante la fabricación de un producto,
estas pueden tener muchas actividades intermedias y el producto final puede estar formado
por un gran número de piezas. Durante estas actividades, puede haber ensamblajes y otras
operaciones que suelen ser simples pero muy repetitivas. En estos casos, el riesgo de
cometer algún error es muy alto, independientemente de la complejidad de las operaciones.
Los “Poka-Yokes” ayudan a minimizar este riesgo con medidas sencillas y baratas.
1- Función de control:
En este caso se diseña un sistema para impedir que el error ocurra. Se busca la utilización
de formas o colores que diferencien cómo deben realizarse los procesos o como deben
encajar la piezas.
2- Función de advertencia:
En este caso asumimos que el error puede llegar a producirse, pero diseñamos un
dispositivo que reaccione cuando tenga lugar el fallo para advertir al operario de que debe
corregirlo. Por ejemplo, esto se puede realizar instalando barreras fotoeléctricas, sensores
de presión, alarmas, etc.
Manufactura esbelta
Manufactura Esbelta o Lean Manufacturing es una filosofía de gestión enfocada a la
reducción de los 7 tipos de "desperdicios" (sobreproducción, tiempo de espera, transporte,
exceso de procesado, inventario, movimiento y defectos) en productos manufacturados.
Eliminando el despilfarro, la calidad mejora y el tiempo de producción y el costo, se reducen.
Aunque no hay un plan de implementación de manufactura esbelta o una “receta” que
funcione por igual para todas las empresas, es posible establecer ciertas guías generales
que nos dan la flexibilidad que se ocupa para tomar en cuenta las situaciones particulares
de cada empresa.
Los principales objetivos de la Manufactura Esbelta es implantar una filosofía de Mejora
Continua que le permita a las compañías reducir sus costos, mejorar los procesos y eliminar
los desperdicios para aumentar la satisfacción de los clientes y mantener el margen de
utilidad.

Manufactura Esbelta proporciona a las compañías herramientas para sobrevivir en un


mercado global que exige calidad más alta, entrega más rápida a más bajo precio y en la
cantidad requerida.

También podría gustarte