Introducción a la programación 2023
Sitio: | Facultad de Ingeniería U.Na.M. |
Curso: | Informática ET241/EM241/IC241/IN241/IM204 |
Libro: | Introducción a la programación 2023 |
Imprimido por: | Invitado |
Día: | miércoles, 18 de diciembre de 2024, 03:46 |
1. ¿Qué es la Informática?
Definición
La Informática nace bajo la idea de ayudar al hombre en aquellos cálculos rutinarios, donde frecuentemente existe una repetición de tareas. Ejemplo de ello es la gestión de un censo, el primero automatizado en 1890 en EEUU utilizando tarjetas perforadas. En esa época se pensó que una máquina no sufriría cansancio ni cometería errores. Con el tiempo esta idea se fue afianzando en la sociedad, y es hoy día que se sigue trabajando para mejorar las prestaciones de los sistemas de cómputo.
Tarjeta perforada
Si repasamos la historia
veremos que la Informática estuvo entre nosotros desde tiempos lejanos,
por supuesto no tal cual la percibimos hoy día. A continuación
transcribimos algunas ideas de importantes pensadores relacionados con
la Informática. Para ubicarse en la historia, debe notarse que los
primeros modelos de computadoras aparecieron alrededor del año 1940.
• Gottfried Wilhelm Leibniz (1646-1716) fue uno de los grandes pensadores de los siglos XVII y XVIII, decía que “Es
una pérdida de tiempo que personas cualificadas pierdan horas como
esclavos en la labor de calcular, lo que podría ser delegado en
cualquier otro si se pudieran utilizar máquinas”.
Basándose en los trabajos de Pascal construyó una calculadora mecánica
compuesta por cilindros dentados con longitud incremental que podía
sumar, restar, multiplicar y dividir automáticamente, conocida como la
rueda de Leibniz. Algunas máquinas basadas en estos mismos principios
han jugado un papel preponderante en la Segunda Guerra Mundial, e
incluso algunas están todavía en uso. Leibniz fue también el primer
pensador occidental en investigar la aritmética binaria y sentó las
bases de la lógica simbólica, basada en símbolos y variables abstrayendo
la semántica de las proposiciones.
• Ada Byron
(1815-1852) desarrolló los primeros programas para la Máquina Analítica
de Babbage (1833), debido a estos trabajos, se la considera el primer
programador de computadoras del mundo. Ella escribió “La
Máquina Analítica no tiene la pretensión de crear nada. Puede realizar
cualquier cosa siempre que conozcamos cómo llevarla a cabo; pero es
incapaz de descubrir relaciones analíticas o verdades". Su
potencialidad es la de ayudarnos a hacer posible aquello sobre lo que
tenemos un conocimiento previo. Muchas han sido las mujeres que han
realizado grandes aportes a la Informática, aún así Ada Byron es la
única mujer que cuenta con un lenguaje de programación que lleva su
nombre: en 1979 el Departamento de Defensa de los Estados Unidos creó un
lenguaje de programación basado en Pascal que se llamó lenguaje de
programación Ada en su honor.
• George Boole
(1815-1864), por su parte, fue un destacado matemático que está
considerado como uno de los pioneros en el desarrollo de las ciencias de
la computación. Sus aportes teóricos dieron lugar a la especialización
que se conoce como álgebra de Boole o álgebra booleana.
• Herman Hollerith
(1860-1929) fue un estadístico estadounidense que inventó la máquina
tabuladora. Es considerado como el primer informático, es decir, el
primero que logra el tratamiento automático de la información
(Informática = Información + automática). En esos tiempos, los censos se
realizaban de forma manual, con el retraso de unos 10 años en su
procesamiento. Ante esta situación, Hollerith comenzó a trabajar en el
diseño de una máquina tabuladora o para procesar los datos del censo,
basada en tarjetas perforadas que patentó en el año 1889. Un año después
incluyó la operación de sumar con el fin de utilizarla en procesos de
contabilidad.
• Alan Turing
(1912-1954) fue un matemático, lógico, científico de la computación,
criptografía y filósofo británico. Es considerado uno de los padres de
la ciencia de la computación siendo el precursor de la informática
moderna. Proporcionó una influyente formalización de los conceptos de
algoritmo y computación, la famosa máquina de Turing. Durante la Segunda
Guerra Mundial, trabajó en descifrar los códigos nazis, particularmente
los de la máquina Enigma. Tras la guerra diseñó una de las primeras
computadoras electrónicas programables digitales en el Laboratorio
Nacional de Física del Reino Unido (1945). Entre otras muchas cosas,
también contribuyó de forma particular e incluso provocativa al enigma
de si las máquinas pueden pensar, es decir a la Inteligencia Artificial.
Turing decia: “Las máquinas me sorprenden con mucha frecuencia". Hay varias películas sobre la vida de este hombre, la última en el 2014 una película llamada "El Código Enigma", trata de su historia personal y laboral.
• John von Neumann
(1903-1957) fue un matemático húngaro que realizó contribuciones
fundamentales en física cuántica, análisis funcional, teoría de
conjuntos, ciencias de la computación, economía, análisis numérico,
cibernética, hidrodinámica, estadística y muchos otros campos. Está
considerado como uno de los más importantes matemáticos de la historia
moderna. Diseñó una arquitectura de computadoras que lleva su nombre, y
aún es utilizada en casi todas las computadoras personales,
microcomputadoras, minicomputadoras y supercomputadoras. Von Neumann
decía “Podría parecer que hemos llegado al límite de lo que es
posible lograr con la tecnología informática, aunque hay que tener
cuidado con tales declaraciones, ya que tienden a sonar bastante tontas
en cinco años”.
El
término Informática nace recién en la década de 1960 en Francia bajo la
denominación INFORMATIQUE, debido a la contracción de las palabras
INFORmation y autoMATIQUE, es decir el tratamiento de la información por
medios automáticos. En las múltiples publicaciones, la Informática se
define de diversas maneras pero siempre ronda la misma idea: el
tratamiento automático de la información.
A continuación veremos algunas definiciones.
•
INFORMÁTICA es la ciencia que estudia el tratamiento automático y
racional de la información. Se habla de tratamiento automático debido a
que son máquinas las que procesan la información y se dice racional por
estar los procesos definidos a través de programas que siguen el
razonamiento humano.
•
INFORMÁTICA es el estudio de los algoritmos y de las computadoras - de
sus teorías, sus modelos abstractos, su realización mecánica, su
fiabilidad y verificación, su medida y eficacia, su descripción
lingüística y su contexto social.
•
La Ciencias de la Computación o Informática como se le llama en algunos
países hispanoamericanos, es la disciplina que busca establecer una
base científica para diversos temas, como el diseño de computadoras, la
programación de computadoras, el proceso de información, la elaboración
de algoritmos para resolver problemas y el proceso algorítmico en sí.
1.1. Del mundo real a la Computadora
¿Cómo Informatizar un problema.?
El
proceso de informatizar la resolución de problemas del mundo real,
tales como resolver una ecuación matemática o realizar la liquidación de
sueldos de los empleados de una empresa, conlleva una serie de pasos
que debemos seguir para obtener una respuesta encuadrada a los datos
provistos.
Cómo primer paso se deberá conocer
las especificaciones del problema, es decir, analizar y determinar en
forma clara y concreta el objetivo que se desea.
Es
un error frecuente tratar de comenzar a buscar una solución sin antes
tener una interpretación total del problema o cuál es el propósito de la
solución.
Por lo tanto debemos analizar los datos que se disponen y cuáles son los resultados que se desean.
Una vez que se conoce el problema en detalle, se puede intentar realizar un Modelo del mismo, es decir, Abstraer el problema tratando de encontrar los aspectos principales que se pueden resolver, los datos que se han de procesar y el contexto del problema, simplificando su expresión. Disponiendo de un panorama más claro del problema, sus datos y resultados, se puede escribir una serie de acciones que seguidas paso a paso resuelvan el problema. Esto es el Algoritmo. Si esta etapa es exitosa, se traduce el algoritmo, mediante un lenguaje de programación, para convertirlo en un Programa que podrá ser interpretado por la computadora para su ejecución en forma rápida y eficaz.
1.2. Resolución de problemas con computadora
- Análisis del problema, se formula y analiza el problema en su contexto del mundo real. COMPRENDER EL PROBLEMA.
- Diseño de una solución, se elige una metodología para hallar la solución del problema. TRAZAR UN PLAN PARA RESOLVERLO.
- Escritura de un algoritmo, se expresa la metodología del punto anterior de forma tal que pueda ser interpretado por el procesador que lo va a ejecutar. ESCRIBIR EL ALGORITMO.
- Codificación del algoritmo. Un algoritmo es una especificación simbólica que debe traducirse a un programa a partir del conocimiento de un lenguaje de programación para poder ser ejecutado por la computadora. ESCRIBIR EL PROGRAMA O CODIFICAR EL ALGORITMO.
- Ejecución y validación del algoritmo-programa. La etapa siguiente a escribir el programa, es la verificación de funcionamiento del mismo, es decir, ver sí el programa conduce al resultado deseado con los datos dados del mundo real. PROBAR EL PROGRAMA.
- Los datos de entrada.
- Cuál es la información que se desea producir, los resultados.
- Los métodos y fórmulas que se necesitan para procesar los datos para arribar a los resultados, la metodología de resolución.
2. El modelo Computacional
¿Qué tenemos y qué queremos?
2.1. La parte difícil...
- “¿Qué necesito para resolver el problema, si yo fuese el procesador?”
- “¿Qué datos necesito que me de otra persona para poder obtener la solución del problema?”, y anotarlos como ENTRADA o DATOS.
- “¿Para obtener este resultado, qué información necesito?”( ó Que datos de Entrada necesito?).
- Luego se preguntará “¿Cuáles son los pasos para llegar al resultado partiendo de los datos?”.
Entrada:
Dar el valor del radio y guardar ese valor con el nombre R.
Proceso:
- Calcular el Área como pi * radio * radio
- Calcular el Perímetro como 2 * pi * radio
Salida:
- Informar los resultados de Área y Perímetro.
- primero ingresar todos los datos
- luego procesarlos
- por último exhibir todos los resultados.
3. ¿Datos o Información?
Describiremos la diferencia que existe entre Datos e
Información, términos que se pueden pensar como sinónimos. En el
ambiente de la Informática, el término información puede aplicarse a
casi cualquier cosa que pueda comunicarse, tenga o no valor.
Los
datos, en principio, son información no elaborada, que una vez
procesados (comparados, ordenados, sumados, etc.) constituyen
información útil.
Los datos son simplemente hechos o cifras: bits de información, pero no información en sí misma. Cuando los datos se procesan, interpretan, organizan, estructuran o presentan para que sean significativos o útiles, se denominan información . La información proporciona contexto para los datos
Según
esto, las palabras, los números, las imágenes de este libro son
símbolos que representan datos. Si resalto una palabra en el texto estoy
añadiendo información al texto.
Por ejemplo, una lista de fechas (datos) no tiene sentido sin la información que hace que las fechas sean relevantes (fechas de vacaciones).
En una dada situación problemática se puede disponer de muchos datos, de los cuales sólo algunos pueden ser útiles para la resolución del problema, es decir, considerados información útil.
"Entonces podemos decir que la información es el conocimiento producido como resultado del procesamiento de los datos."
Observación :
Vemos que lo que hace la diferencia entre Datos e Información es el Procesador ( persona o máquina)
Ejemplos:
1)
2)
La temperatura es de 25. Esto es una Dato. Si lo interpreta una argentino, procesaría la información pensando que son 25 grados centígrados, si lo escuchara un norteamericano pensaría que son grados fahrenheit, y esto sería algo muy frio, son caso -4 grados celcius. Como vemos el valor del dato tiene distinto sentido luego de ser procesado.
4. Algoritmo
¿Qué es un Algoritmo?
- preciso, es decir, debe indicar claramente, sin ambigüedades, cada uno de los pasos a seguir para conseguir el objetivo propuesto.
- exacto, es decir, que si se sigue el algoritmo varias veces con el mismo juego de datos, los resultados obtenidos deben ser los mismos.
- finito, de tiempo finito, su ejecución debe concluir en algún momento.
4.1. ¿Quien ejecuta el Algoritmo?
4.2. Ejemplo
Ejemplo Cotidiano.
- determinar los ingredientes necesarios,
- describir los pasos para hacer bombas de papas.
- Ingredientes (elementos necesarios): 1 Kg. de papas, 1 huevo, pan rallado, queso cremoso, aceite, sal y pimienta a gusto.
- Separar en tareas los pasos necesarios para lograr el objetivo:
- Tarea 1: Pelar un Kg. de papas y cortarlas en dados pequeños
- Tarea 2: Hervir las papas hasta que estén cocidas
- Tarea 3: Pisar las papas hasta lograr un puré
- Tarea 4: Condimentar a gusto y dejar enfriar.
- Tarea 5: Batir el huevo en un recipiente
- Tarea 5.1: Sal y pimienta a gusto
- Tarea 6: Colocar en un plato el pan rallado
- Tarea 7: Cortar el queso en dados de 1cm aproximadamente
- Tarea 8: Tomar una porción de puré.Repetir la tarea 8 hasta que no haya más puré.
- Tarea 8.1: Colocar un dado de queso en el interior.
- Tarea 8.2: Realizar una bolo ocultando el queso
- Tarea 8.3: Empapar con el huevo batido y luego pasar por el pan rallado.
- Tarea 9: Colocar una taza de aceite en una sartén
- Tarea 9.1: calentar a fuego moderado
- Tarea 10: Colocar las bombas de papas en el aceite y cocinar hasta que se doren.
- Repetir la tarea 10 para cocinar todas las bombas.
- Tarea 10.1: Sacar del fuego y colocarlas sobre papel absorbente.
- FIN.
4.3. Problemas Algoritmicos.
- Ir a la Biblioteca. Conjunto de acciones para llegar a la Biblioteca.
- Dar la vuelta al mundo por el Ecuador. Un itinerario para recorrer el mundo.
- Resolver una ecuación matemática. Pasos para resolver una ecuación.
- Cambiar la rueda a un auto. Pasos a seguir para cambiar la rueda.
5. Representación de Algoritmos.
- Gráfica (mediante dibujos)
- No gráfica (mediante textos).
- Diagrama de flujo (del tipo Gráfico)
- Diagrama de Nassi Schneiderman (comúnmente denominado Diagrama de Chapin)
- Pseudocódigo (del tipo NO Gráfico)
- Lenguaje natural
- Fórmulas
- Gráficos (Diagrama de Flujo)
- NO Gráficos (Pseudocódigo).
6. Programa
Definiremos qué se entiende por el término programa.
Un programa es un conjunto de acciones que puede entender y ejecutar una computadora.
Otra definición podría ser:
“es un algoritmo traducido a algún lenguaje que pueda ser entendido por una computadora para poder ejecutarlo”.
Cada acción del programa se denomina instrucción.
Para
llegar a hacer un programa es necesario el diseño previo del algoritmo.
Esto es, representar la solución del problema en un lenguaje natural,
en el cual se expresan las ideas diariamente.
Lenguaje de programación es un conjunto de símbolos (sintaxis) y reglas (semántica) que permite expresar programas
Los
algoritmos deberían ser independientes tanto del lenguaje de
programación en que se expresa el programa, como de la computadora que
lo va a ejecutar.
No hay programa sin Algoritmo.
7. Nuestro Procesador
Introducción
Nuestro Procesador: la computadora.
En
la sección anterior hemos visto el modelo computacional
(Entrada-Proceso-Salida) focalizando así el estudio en la computadora
como procesador de los algoritmos que desarrollaremos a lo largo de este
apunte. A continuación analizaremos brevemente los conceptos básicos
que hay que tener en cuenta para poder programar para ella.
El
diccionario de la Real Academia Española define computador electrónico
como “Máquina electrónica, analógica o digital, dotada de una memoria de
gran capacidad y de métodos de tratamiento de la información, capaz de
resolver problemas matemáticos y lógicos mediante la utilización
automática de programas informáticos.”
La propia definición nos da indicios acerca de algunos elementos básicos del computador:
1. la memoria y
2. algún dispositivo capaz de efectuar cálculos matemáticos y lógicos.
La
memoria es un gran almacén de información. En ella se guardan todo tipo
de datos: valores numéricos, textos, imágenes, sonido, etc. El
dispositivo encargado de efectuar operaciones matemáticas y lógicas,
recibe el nombre de Unidad Aritmético-Lógica (UAL o ALU en inglés).
Es una calculadora inteligente capaz
de trabajar con datos y producir, a partir de ellos, nuevos datos, o sea
el resultado de las operaciones. Existe otro dispositivo muy
importante, la Unidad de Control (UC), que se encarga de transportar la
información de la memoria a la UAL, de controlar la UAL para que efectúe
las operaciones pertinentes y de depositar los resultados en la
memoria.El conjunto que forman la Unidad de Control y la UAL se conoce
por Unidad Central de Proceso (UCP o CPU en inglés Central Processing
Unit). Podemos decir que la UAL+UC= UCP.
Se
suele utilizar erróneamente el término CPU para referirse a la
computadora, en realidad la CPU, más elementos como Memorias, Discos,
Fuente, Placa Madre, etc. es lo que de manera errónea llamamos CPU.
Se
puede imaginar la memoria como un armario enorme con cajones numerados y
la UCP, como una persona que, equipada con una calculadora (la UAL), es
capaz de buscar operandos en la memoria, efectuar cálculos con ellos y
dejar los resultados en la memoria. Recordar que el procesador trabaja
todo en la memoria. Utilizando un lenguaje más técnico: cada uno de los
cajones que conforman la memoria recibe el nombre de celda de memoria y
el número que lo identifica es su dirección o posición en la memoria.
Las
celdas de la memoria son circuitos electrónicos organizados en pequeñas
porciones, todas de igual tamaño. En cada una de ellas se puede
almacenar secuencias de unos y ceros de tamaño fijo.
7.1. ¿Por qué Unos y Ceros?
¿Por qué Unos y Ceros?
Mas adelante en la Materia veremos los distintos sistemas numéricos ( Octal, Binario, Decimal, Hexadecimal)
El propósito de mencionar aqui es para que el alumno asocie el Sistema Numérico Binario con el que maneja un Procesador.
7.2. Unidades de medidas de Informática (Nuevo 2025)
Suelen cometerse errores cuando se hace referencia a las unidades. La confusión proviene de que el Sistema Internacional de Medidas( es de Medidas o de Unidades?). Una de las unidades básicas, el metro? el mas usado? son DECIMALES o en base 10? y utiliza letras para hacer referencia a potencias del sistema decimal.
- 1k = 103=1000, notar que k es en minúsculas.
- 1M =106= 1.000.000, notar que M es en mayúsculas.
- 1G= 109= 1.000.000.000, notar que G está en mayúsculas
Pero En Informática, se usa el sistema binario, por lo que las potencias pueden plantear otra interpretación.
Vemos que en el sistema binario, si tenemos 10 bits, 210 = 1024 combinaciones posibles , ya no se consiguen? no son? múltiplos de 10 como en el sistema decimal.
Por otro lado en informática, (se repite) la información se agrupa históricamente tomando 8 bits y llamándolo byte.
8 bits = 1 byte.
Por lo tanto, En el Sistema Internacional de Medidas:
- b (minúscula) se usa para hacer referencia a bits,
- B (mayúscula) se utiliza para hacer referencias a
debytes ( 8 bits).
Es importante entender que hay una relación de 8? no se entiende qué 8? bits? unidades? entre b y B, por lo que no se debe confundir.
- kilobyte (kB) 103 k (kilo) prefijo decimal del sistema internacional de medidas y B de bytes
- megabyte (MB) 106 , M (mega) prefijo decimal del sistema internacional de medidas y B de bytes
- gigabyte (GB) 109 , G (giga) prefijo decimal del sistema internacional de medidas y B de bytes
- terabyte (TB) 1012 , T ( tera) prefijo decimal del sistema internacional de medidas y B de byte
Planeemos Vemos aquí algunas combinaciones:
- 1kb : 1 kilobit son 1000 bits o 10 3 bits
- 1kB : 1 kilobyte que son 1000 bytes o 103 bytes = 8000 bits.
- 1Mb: 1 mega bit o 1 millón de bits.
- 1MB : 1 millón de bytes.
- 1000 kb serían 1000 bits.
- 1000 KB serían 1024 bytes (8192 bits)
- 1000 kB serían 1000 bytes (8000 bits)
- 1000 Kb serían 1024 bits
7.3. Microprocesador vs. Microntrolador
Un Microcontrolador es MAS que un Microprocesador.
Un Microcontrolador tiene:
- Microprocesador o CPU
- Memoria RAM (SRAM)
- Memoria ROM (Memoria flash)
- Líneas de entrada y salida.
- Sensor efecto Hall
- PWN
- Timer
- ADC Conversor Analógico Digital
- Puertos Series (UART)
- I2C (I cuadrado C).
- Wifi
- Bluetooth
- etc..
Microprocesador | Microcontrolador |
7.4. Microprocesador
Que es un Procesador o Microporcesador?
La imagen mostrada se refiera a un MICROPROCESADOR, que es un circuito integrado que se encuentra dentro de su computador.
Definición:
Un procesador es aquel sujeto o máquina que puede entender un enunciado y ejecutar el trabajo indicado en el mismo.
Vemos que la definición habla de sujeto o máquina.. por lo que Ud. que está leyendo esto es un procesador ( sujeto) y está procesando lo que lee.
Du forstår ikke norsk, fordi du ikke klarer å behandle teksten på det språket.
Es probable que NO sea capaz de entender el texto anterior, ya que no lo puede procesar... el texto está en Noruego, no lo hace ni mas inteligente ni menos inteligente.. solo que como no lo entiende no lo puede procesar..
Aclarado esto no es raro decir que el Procesador de una Computadora o mejor llamado microprocesador no sea capaz de entender el lenguaje que utilizamos para hablar, es por eso que se usa un lenguaje de programación, pero aún así no entiende este lenguaje ( llámese Python o C++).
El microprocesador puede interpretar 0 y 1, así que el código de escribimos en un lenguaje de programación se conoce como código fuente.
El programa que es traducido de código fuente a ceros y unos se conoce como código objeto.
Esto se puede hacer de dos maneras.
- Lenguajes Interpretados.
- Lenguajes Compilados.
Tanto compiladores como interpretadores son programas que convierten el código que escribes a lenguaje de máquina, son como "Traductores"de código fuente a código objeto.
Los lenguajes compilados son aquellos lenguajes de alto nivel que como su nombre lo sugiere, requieren de un compilador (programa que traduce un lenguaje de alto nivel en código máquina o lenguaje máquina) para traducirlo y crear la parte ejecutable.
Los lenguajes de alto nivel permiten escribir instrucciones en un idioma muy parecido al inglés así como hacer uso de notaciones matemáticas comunes.
Ejemplos: C y C++
Lenguajes interpretados
Los lenguajes interpretados son
aquellos lenguajes de programación también de alto nivel en donde el
código fuente debe ser traducido a un lenguaje que la máquina entienda y
pueda realizar, no crean un archivo externo.
Ejemplos: Python y Ruby
A modo de comentario el procesador es una parte de la Computadora, es , hay otras como placa madre, memoria, ventilador del micro que se encuentran dentro de lo que conocemos como computadora.
8. Nombres de programas
El nombre de un programa NO es lo mismo que el nombre de un archivo tipo documento!!
Reglas para Nombres de Programas
El
propósito de esta materia es que sepamos escribir un programa, los
programas necesitan ser llamados y para ello deben tener un nombre.
Normalmente
no tratamos el tema de los posibles nombres a los programas, pero solía
ser un error común que los alumnos asignen nombres y que luego al
momento de hacer correr el programa o ejecutar tira algunos errores, es
por eso que vamos a establecer para el presente curso unas reglas para los nombres de programas.
Estas 3 reglas son sencillas y
veremos que tienen un parecido grande con los nombre de las variables
que veremos mas adelante y nos van a permitir evitar errores menores.
1. Todo nombre de programa debe empezar con una letra del alfabeto inglés (mayúscula o minúscula).
2. No debe contener espacios en blanco ni punto. Este suele ser un error frecuente de los alumnos.
3. Puede contener una combinación de los siguientes caracteres : letras, dígitos y el guión bajo.
Se entiende por Letras:
a b c d e f g h i j k l m n o p q r s t u v w x y z A B C D E F G H I J K L M N OPQRSTUVWXYZ
Se entiende por Dígitos:
0 1 2 3 4 5 6 7 8 9
Se entiende por Caracter especial :
_ (guión bajo)
Observación: NO ESTA EL ESPACIO!!
8.1. Case Sensitive
Que algo sea sensible a las mayúsculas y minúsculas, conocido como o case sensitive en inglés case sensitive, es una expresión usada en informática que se aplica a los textos en los que tiene alguna relevancia escribir un carácter en mayúsculas o minúsculas. Esto se aplica en particular para las variables y quiere decir que no es lo mismo
- Temperatura
- temperatura
- TEMPERATURA
- TEMPeratura
En Python todos estos nombres serán tratados como distintos, ya que Python es case sensitive.
8.2. Tipos de Notaciones
Tipos de Notaciones
Recordemos que los espacios no son recomendados en los nombres, ni de programas ni de variables como ya dijimos.
Se comentan aquí dos alternativas para hacer entendible el nombre usando lo que se conoce como notación con delimitadores.
Palabras separadas por _ (guión bajo)
Programa_uno
Ejemplo_dos
Ejercicio_funcion_1
Palabras separadas por mayúsculas o camello
ProgramaUno
EjemploDos
EjercicioFuncion1
8.3. Acceso Directo
Acceso Directo NO es el nombre del Programa.
En estos tiempos en lo que todo es bajo un gráfico, permite hacer que el usuario sea un ignorante respecto del nombre de un programa y para ello los Sistemas Operativos con un entorno gráfico reemplazan los nombre de los programas por otros que no tienen las limitaciones vistas y mencionadas.
Estos se llaman en Windows Accesos Directos y en Linux, Enlaces.. pero el propósito es el mismo.. eliminar las limitaciones de los nombres de los programas. Veamos algunos casos comunes.
El caso de Microsoft Word, nombre del acceso directo al programa winword.exe
El caso de LibreOffice Writer, nombre del acceso directo al programa /usr/lib/libreoffice/program/soffice.bin --writer
El caso de LibreOffice Calc, nombre del acceso directo al programa /usr/lib/libreoffice/program/soffice.bin --calc
El caso de Bloc de Notas, nombre del acceso directo al programa notepad.exe
Importante: En este curso escribiremos programas (no accesos directos) , por lo tanto debemos respetar las limitaciones de los nombres o probablemente no funcionarán
8.4. Ejercicios
El docente plantea a la clase para que en 5 minutos que cada Alumno proponga 6 nombres de programas. Deben:
1)Respeten las reglas de Nombres de Programa
2) Tengan los dos tipos de Notaciones ( Camello y guión bajo)
El docente toma nota de algunos en el pizarrón e identifica el tipo de notación o los errores que se puedan observar.
Recordar que:
NO deben existir espacios.
NO deben existir letras acentuadas : á, é, í, ó, ú
No deben existir caracteres como : ñ , Ñ, " , ' ,