Documentos de Académico
Documentos de Profesional
Documentos de Cultura
“Ciclos”
3.1 While
3.2 Do-While
En este ejercicio ocupamos los ciclos whille es aquella en que el cuerpo del
bucle se repite mientras se cumple una determinada condición. Cuando se ejecuta
la instrucción mientras, la primera cosa que sucede es evaluar la condición (una
expresión booleana) y la Do-While permite repetir una instrucción o una
instrucción compuesta hasta que una expresión especificada sea false. En este
caso los ocupamos para poder calcular e imprimir nomina de cada empleado
tomando en cuenta el numero de empleados y las horas pagadas.
UNIDAD I y II “EVALUACION”
y a continuación informar del precio del helado sin ningún topping. Finalmente, el
programa escribe por pantalla el precio del helado con el topping seleccionado (o
ninguno)
Los números primos son aquellos que solo tienen dos divisores el mismo
numero y el numero 1. En el diagrama de flujo ingresamos inicio donde va el
nombre de nuestro algoritmo insertamos la figura que representa “leer” para
escribir “insertar numero” debajo de esta una mas donde definiremos “n” (cualquier
numero), función asignación colocamos “x = 1” , colocaremos la función ciclo para
asignar la condición “ x > con esto cada que ingresemos un numero se ejecutara
la operación para determinar si el numero es primo.
“Algoritmos y Problemas ”
.
4.2 Gramáticas libres de contexto.
4.3 Análisis sin táctico descendente
4.4 Análisis sintáctico ascendente.
4.1 Introducción.
2.3 Proceso de compilación.
2.4 Fases de la compilación.
2.5¿Cómo diseñamos un compilador?
2.6 ¿Por qué es importante entender los compiladores?
Fácilmente extensible
mediante librerías DLL y
componentes ActiveX de
otros lenguajes.
UNIDAD II “ COMPILADORES”
SISTEMA
LENGUAJE ¿QUE ES? VENTAJAS DESVENTAJAS
OPERATIVO
ACTIVIDAD VII
22 DE ABRIL 2022
Según el usuario pueden ser: multiusuario, sistema operativo que permite que varios
usuarios ejecuten simultáneamente sus programas; o monousuario, sistema
operativo que solamente permite ejecutar los programas de un usuario a la vez.
Según la gestión de tareas pueden ser: monotarea, sistema operativo que solamente
permite ejecutar un proceso a la vez; o multitarea, sistema operativo que puede
ejecutar varios procesos al mismo tiempo.
Según la gestión de recursos pueden ser: centralizado, sistema operativo que solo
permite utilizar los recursos de un solo ordenador; o distribuido, sistema operativo
que permite ejecutar los procesos de más de un ordenador al mismo tiempo.
Son parte esencial del funcionamiento de los sistemas informáticos y la pieza de software
central en la cadena de procesos, ya que establecen las condiciones mínimas para que todo
funcione: la administración de los recursos, el método de comunicación con el usuario y
con otros sistemas, las aplicaciones adicionales.
Round Robin. En este algoritmo se asignan tiempos de ejecución de forma rotativa entre los
procesos. Este asigna a todos los procesos el mismo quantum o ciclos de CPU. La selección
de los procesos se hace mediante una cola FCFS o FIFO.
Planificación por prioridades. Cada proceso tendrá una prioridad determinada que servirá
como criterio al planificador para otorgarle el uso de la CPU. En el caso de que varios
procesos tengan la misma prioridad se podrá combinar con otro algoritmo como FCFS para
elegir el proceso a ejecutar.
Planificación con múltiples colas. Si se utilizan múltiples colas se puede utilizar un criterio
para asignar los procesos a una cola determinada y otro para elegir qué proceso de qué cola
deberá ser ejecutado.
Bloque de control de proceso (BCP)
Cada proceso debe tener una estructura de datos que almacena su estado y otra
información de control:
– Valores de los registros de la CPU
– Estado actual (preparado, bloqueado, etc.)
– Información para el planificador (prioridad, tiempo de espera…)
– apuntadores a los recursos de memoria, E/S, archivos etc. que tiene concedidos o abiertos
– Información de contabilidad (tiempo consumido…)
HILOS
La complejidad, los hilos al compartir memoria tienen que programarse de forma más
cuidadosa puesto que un hilo puede machacar le trabajo de otro hilo o hacer que se cuelgue.
Siempre que los hilos compartan datos hay que tener este punto en cuenta
Las políticas de reparto se basan en algoritmos de planificación que son los que deciden
qué procesos tienen que ejecutarse en cada momento y por qué. Estos algoritmos deberán
basarse en la equidad eficiencia, imparcialidad tiempo de respuesta y rendimiento del
sistema.
Memoria virtual
Técnica de gestión de la memoria del equipo, cuyo uso reside en la
utilización conjunta de la memoria principal del sistema y nuestra unidad de
almacenamiento, como un disco duro. Es decir, es una técnica que usa el sistema
para emplear parte de nuestro almacenamiento como un módulo más de memoria; como,
por poner un ejemplo que podamos localizar rápido, la memoria RAM.
La memoria virtual surgió como uno de estos métodos de ahorro y descarga,
permitiéndonos hacer más en equipos con poca memoria disponible, sin necesidad de
adquirir más unidades de memoria adicionales. Generalmente caras en el pasado. Era una
medida muy útil en casos de necesidad, o para llevar a cabo trabajos que no podríamos
hacer en un equipo con cierta cantidad de memoria.
FUNCIONES:
1. Transforma una dirección virtual a física.
2. Transfiere páginas de la memoria secundaria a la memoria principal y viceversa.
Tabla de páginas. Guarda la dirección del marco en la que está almacenada cada
página. Existe una tabla por proceso y tantas entradas como páginas tiene éste.
Transforma direcciones virtuales o lógicas a físicas.
Lista de marcos libres. Guarda los marcos sin asignar, habiendo una tabla para
todo el sistema (no para cada proceso). Hay entradas como marcos libres.
Los procesos pueden albergar distintas posiciones de memoria, pudiendo ser desplazados
sin problema. Esto ofrece versatilidad y proporciona cierta ubicación., no existen conflictos
entre procesos que quieren acceder a ciertas posiciones de memorias. Es decir, no se da el
caso de que un proceso acceda a una posición de memoria de otro proceso. no tiene ningún
mecanismo de compatición. Por este motivo, nos solemos decantar por la segmentación
paginada.
Y Por último, la partición. Toda la memoria se divide en bloques (marcos) y tienen el
mismo tamaño. Ocurre lo mismo con los procesos en bloques (páginas). Así que,
aprovechamos todo el espacio posible.
Segmentación
Por defecto Windows cuando se marca este atributo y se aplica, el fichero tendrá el texto del
Sistema de archivos de Sun® Solaris
1.- Formato de registro de arranque maestro: se trata del sistema de archivos del
estándar ISO9660, que típicamente en una sola sesión, permite el almacenamiento de los
datos y una vez hecho lo anterior, no permite la escritura de nuevos datos (esto se le llama
cerrar sesión). Permite almacenar en cualquier disco de la familia de los CD, de los DVD
como lo son DVD-R, DVD-ROM, DVD-RW, DVD-RAM, etc. y de los Blu-ray Disc.
Atributos de archivos
Los atributos de Información de archivo hacen referencia a las
características de archivos y directorios como, por ejemplo, el nombre, tamaño, propietario,
derechos de acceso y enlaces. Información de archivo es un grupo de atributos de varias
instancias.
****Sólo lectura (FILE_ATTRIBUTE_READONLY - 0x00000001):
Con el atributo de valor: R. Impide que se pueda sobreescribir (modificar) o eliminar un fichero. La
definición de Windows para este atributo: especifica si este archivo o carpeta es de sólo lectura, lo
que significa que no se puede cambiar o eliminar accidentalmente. Si activa esta casilla de
verificación cuando hay seleccionados varios archivos, todos ellos serán de sólo lectura. Si
desactiva esta casilla de verificación, ninguno de los archivos seleccionados será de sólo lectura
Las primeras versiones de Microsoft® Ms-DOS® usaban la clásica FAT 16, con
tamaños máximos de 16 bits; esto limitaba la capacidad total del disco duro a 512 MB,
asumiendo el mayor tamaño de cluster (8.192 Bytes). Con la aparición de la versión 5.0 y
las primeras de Windows 95 podían llegar a manejar discos duros de un máximo de 2 GB
(4x512 Bytes), también las memorias USB actuales utilizan este sistema de archivos. Los
sistemas operativos PC-DOS, Ms-DOS, Windows 3.11 y Windows 95 de Microsoft® solo
reconocen el sistema de archivos FAT y el CDFS utilizado en CD-ROM.
FAT32: proviene de ("File Allocation Table 32"), que significa tabla de localización
de archivos a 32 bits. Es el sistema de archivos que se empezó a usar a partir de la
versión OSR2 deMicrosoft® Windows 95, la cual tiene una mejor manera de
almacenar los datos con respecto a la FAT 16 ya que puede manejar discos duros de
hasta 2 Terabytes. Se utiliza básicamente con Microsoft® Windows
98 y Microsoft® Windows ME. Los sistemas operativos Windows 98 y ME de
Microsoft® reconocen el sistema de archivos FAT, FAT32, el CDFS utilizado en
CD-ROM y el UDF utilizado en DVD-ROM.
Nomenclatura de archivos y tipo de archivo, Las reglas para ponerle nombre a un archivo y
a una carpeta son las mismas. Según Microsoft, podemos ponerle un nombre de hasta 255
caracteres (letras, números o signos) a un archivo. Los puntos son solo para separar el
nombre de la extensión.
***Los archivos compartibles son aquéllos a los que se puede acceder desde varios hosts;
mientras que los archivos no compartibles sólo están disponibles localmente. Los
archivos variables, tales como documentos, pueden cambiar en cualquier momento;
***Los archivos estáticos, tales como binarios, no cambian sin una actuación por parte del
administrador de sistemas.
Tipos de archivos
El sistema de archivos de UNIX y LINUX
El objetivo principal de esta organización es que el usuario pueda identificar los archivos
sin lugar a error y acceder a ellos lo más rápido posible. Los sistemas de archivos también
otorgan a los archivos, entre otras, las siguientes características:
Para instalar un sistema de archivos, hay que formatear el soporte de datos. Los
medios de almacenamiento que se comercializan ya vienen formateados. En el pasado, era
común que el propio usuario tuviera que configurar los nuevos soportes de datos para
almacenar y administrar los archivos.
En los años 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzó a
elaborar un proyecto para resolver problemas de la vida cotidiana o que se centrara, al
menos, en problemas más concretos. Así es como nació el sistema experto.
Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la lnteligencia
Artificial, tales como el LISP o el PROLOG.
Conclusión
El objetivo último de la IA es simular la inteligencia humana en una
máquina creando robots que sean conscientes y con sentimientos reales,
similares a los humanos. Uno de los problemas más difíciles es la
simulación de la conciencia, cualidad humana que hace que nos demos
cuenta de nuestra propia existencia.
Realizar una investigación sobre IA y la Conciencia.
AUTOEVALUACION:
I. Escriba una V o una F
II. • ( v ) El termino percepción se utiliza para indicar que el agente puede producir
salidas en cualquier instante
III. . • ( v) Las medidas de rendimiento incluyen los criterios que determinan el éxito
en el comportamiento del agente.
IV. • ( f) En el diseño de un agente el primer paso es la especificación del entorno de
trabajo
V. • (v ) La estructura de un agente es Agente=Arquitectura + reglas de condición
modelos a priori ni necesidad de especificar funciones de distribución
de probabilidad.
Una red neuronal no necesita un algoritmo para resolver un problema,
ya que ella puede generar su propia distribución de pesos en los
enlaces mediante el aprendizaje. También existen redes que
continúan aprendiendo a lo largo de su vida, después de completado
su período de entrenamiento.
3.3. APRENDIZAJE
2.4.- APLICACIONES
Diseño automatizado, incluyendo investigación en de los ALGORITMOS GENETICOS
diseño de materiales y diseño multi- objetivo de componentes automovilísticos: mejor
comportamiento ante choques, ahorros de peso, mejora de aerodinámica, etc. Diseño
automatizado de Diseño automatizado de equipamiento industrial.
• LOGICA DIFUSA
• INTRODUCCION
• CONCEPTOS BASICOS
• REGLAS IF-THEN
Consiste en llevar la salida del proceso aun valor deseado con las
acciones de control calculadas tomando la decisión en base a una descripción
borrosa del proceso. El control es el mayor campo de aplicación de la lógica
borrosa. Es realmente útil en el caso de problemas de control complejos donde no
existe un modelo preciso del proceso y la información disponible es de carácter
cualitativo.
Fuzzy set es aquel que no está formado por números sino por etiquetas
lingüísticas.
Etiqueta lingüística: Es una palabra o Conjunto de palabras.
4.1 INTRODUCCIÓN.
agente completo que comprenda todas las acciones que tomen los agentes del
sistema.
La planeación para múltiples agentes puede ser considerada como un
problema distribuido que los agentes tiene que resolver. Cuando se construye este
problema distribuido se tienen que hacer algunas suposiciones de las principales
propiedades de sus elementos [LUBO 2002].
5.2.1 PLANEACIÓN
Arquitecturas cliente-servidor:
salidas de la interfaz de usuario, y la capa de recuperación de
información incluye lógica específica de la aplicación para
acceder y actualizar la base de datos.
utilizando estas entradas; y un componente de salida genera
salidas para ser escritas en la base de datos
e impresas.
Sistemas de información
Permite el acceso controlado a una gran base de
información, como un catálogo de biblioteca, un horario de
vuelos o los registros de pacientes en un hospital. El
desarrollo de la WWW significa que un enorme número de
sistemas de información pasaron de ser sistemas
organizacionales especializados a ser sistemas de propósito
general universalmente accesibles.
En donde la capa superior soporta la interfaz de usuario
y la capa inferior la base de datos del sistema. La capa de
comunicaciones con el usuario maneja todas las entradas y
QUE
Circuito electrónico
Machine Learning
Machine Learning o Aprendizaje Automático a veces es
considerada como una rama de la Inteligencia Artificial. En realidad
podía considerarse un campo por sí solo, que usa algoritmos de Data
Mining (Minería de Datos), con la diferencia de que la máquina tiene
que aprender a hacer las cosas. Normalmente es la rama central en la
mayor parte de las aplicaciones de Inteligencia Artificial, pero no la
única. Se suele además combinar con otras tecnologías. Por ejemplo,
para entender el lenguaje escrito, lo que una persona quiere decir, es
necesario aplicar conocimientos de morfología, de sintaxis, de
sinonimia, de estadística, etc.
Deep Learning
Deep Learning, o Aprendizaje Profundo, también es considerada una
rama, pero del Machine Learning. Es una de las más novedosas aunque
sus orígenes son de la década de los noventa con la aparición de redes
neuronales.
Big Data
Big Data se refiere a nuevas tecnologías capaces de procesar
millones de datos. Es un concepto que ha cobrado fuerza desde el 2010 y
coincide con una explosión de datos digitales. El análisis de esos datos
puede ser meramente estadístico y no conlleva necesariamente el uso de
aplicaciones de inteligencia artificial.
Los chatbots utilizan la IA para comprender más rápido los
problemas de los clientes y proporcionar respuestas más
eficientes.
Los asistentes inteligentes utilizan la IA para analizar
información crítica proveniente de grandes conjuntos de datos
de texto libre para mejorar la programación.
También trata sobre el proceso y la capacidad de pensamiento
superpoderado y el análisis de datos que sobre cualquier formato o
función en particular. Aunque la IA muestra imágenes de robots de
aspecto humano de alto funcionamiento que se apoderan del mundo,
la IA no pretende reemplazar a los humanos. Su objetivo es mejorar
significativamente las capacidades y contribuciones humanas. Eso la
convierte en un activo empresarial muy valioso. Para obtener el valor
completo de la IA, muchas empresas están haciendo inversiones
significativas en equipos de ciencia de datos. La ciencia de datos, un
campo interdisciplinar que usa métodos científicos y de otro tipo para
extraer valor de los datos, combina habilidades de campos como la
estadística y la informática con el conocimiento empresarial para
analizar datos recopilados de múltiples fuentes.