La informática es algo para todos, no es algo solamente para algunos cuantos, todo el mundo puede aprender la informática, si es que se dispone ha aprenderla, ya que el que quiere puede. Si te decides ha aprender la informática tu puedes lograrlo. La informática no es algo difícil, porque todo aquel que se dispone ha aprender algo lo hace. Ya que si no te dispones ha aprender algo se te hara difícil. Pero ¿por qué hay algunas personas que aprenden más que otros?, la respuesta es simple, El que se dispone ha aprender, aprende y cuando ve que algo no le sale lo hace una y otra vez, hasta que lo que el quiere hacer le sale bien.


Desde ser un desarrollador de software hasta la ciberseguridad, el campo está lleno de emocionantes carreras y de gran crecimiento. Si estás empezando o si estás pensando en cambiar de carrera o buscas avanzar tus conocimientos de informática, esta guía te ayudará a navegar por las diferentes trayectorias profesionales de la informática, los puestos puesto de trabajo y las habilidades necesarias para entrar en la industria de la informática.




¿Qué es la Informática?

La Informática es la rama de la Ingeniería que estudia el hardware, las redes de datos y el software necesarios para tratar información de forma automática. La Informática presenta un componente teórico y otro aplicado, como sucede con la Computación, la Ciencia de la Información y otras muchas ramas del conocimiento.

Ella estudia la estructura, el comportamiento y la interacción de los sistemas naturales y las tecnologías de la información. Se conoce como Informática (también llamada computación) a la ciencia que estudia los métodos, procesos y técnicas de almacenamiento de información, su procesamiento y transmisión a otros soportes en formato digital. Es una disciplina relativamente reciente, nacida con la revolución tecnológica del siglo XX. La palabra Informática procede del francés Informatique, formada por la contracción de los vocablos información y automática "informacion automatica".


Por lo general, un "Sistema Informático" lo podemos entender como una solucion completa a un problema concreto de tratamiento automatizado de información.


Esta solución, por lo general, contempla una parte fisica (el "hardware" o máquina sobre las que se trabaja, el hardware es todo lo fisico que tiene una computadora, como el Teclado, el Mouse o raton, el Monitor, etc) y el "software" (formado por los programas o utilidades de que se hace uso en la máquina). Y por último y más importante, los sistemas informáticos suelen requerir por lo general de una interacción humana, que es la que le da la orden al sistema informatico.



¿Para qué sirve la informática?

La informática sirve para controlar eficazmente todo los sistemas informáticos existentes en la actualidad, de esta manera, se pueden poner al servicio de todas aquellas personas que lo necesitan. La informática es considerada una ciencia, así que tiene muchas vertientes que pueden ser útiles para cualquier persona.

Actualmente la informática se utiliza en muchísimas áreas de nuestra vida: Desde los astronautas hasta las más sencillas herramientas para la gestión de una pyme o por ejemplo, el control de las luces de los semáforos, todo ello requiere de la informáticapara su funcionamiento.


Esta no solo facilita la comunicación entre las personas, sino que también permite la realización de un sinfín de tareas, entre ellas, proveer de información a través de sitios web, blogs, entre otros.



Historia de la informática

El origen de la informática se sitúa en la segunda mitad del siglo XX, aunque la primera generación de computadoras se desarrolló entre 1951 y 1958, las cuales funcionaban con válvulas, cilindros magnéticos e instrucciones internas. Eran ordenadores que funcionaban muy lentamente, eran muy grandes y generaban mucho calor. Pero con el paso de los años la evolución de la informática no ha dejado de mejorar gracias a las nuevas tecnologías, sobre todo teniendo en cuenta el circuito integrado, el móvil e Internet.



Generaciones de la informática

A día de hoy podemos distinguir hasta cinco generaciones en la evolución de la informática: Primera generación; Que va de 1940-1952 y que se basa en la tecnología de tubos al vacío. Se trata de un periodo en el que se construyeron muchas máquinas de cálculo que, debido a su gran tamaño, necesitaban un sofisticado sistema de enfriamiento y funcionaban muy lentamente.

La segunda generación (1952-1964) tiene como protagonistas los transistores, los cuales solucionaron el problema del tamaño y el calentamiento de las computadoras, ya que es un semiconductor de electricidad capaz de imitar y reproducir un proceso lógico.

La tercera generación en la evolución de la informática (1964-1971) se centra en la tecnología de microcircuitos integrados, a partir de los cuales surgen los teleprocesos.

En la cuarta generación (1971-1981) aparecen los microprocesadores y las computadoras personales, las redes, los procesos compartidos e interactivos y también se diversifica su uso.


En la quinta generación (1981-actualidad) Se comienza a utilizar la inteligencia artificial, tanto en lo que se refiere al hardware como al software, para resolver problemas complejos como puede ser la traducción automática de una lengua a otra. Esta quinta generación, que vivimos actualmente, está consiguiendo cambios realmente espectaculares en la evolución de la informática, mediante una mayor rapidez en el procesamiento, desarrollo de programas, desarrollo multimedia y avances en inteligencia artificial y en realidad virtual, entre otras muchas sorpresas que vendrán.


Todos los derechos reservados: © Victor Medina 2022
© Informática para todos