Blog https://nougir.com Sun, 03 Nov 2024 19:27:32 +0000 Joomla! - Open Source Content Management es-es 9CARS es un ejemplo de ERP para Pymes https://nougir.com/blog-3/item/33-9cars-ejemplo-de-erp-exitoso-para-pymes https://nougir.com/blog-3/item/33-9cars-ejemplo-de-erp-exitoso-para-pymes 9CARS es un ejemplo de ERP  para Pymes

9CARS es una aplicación diseñada por y para la gestión integrada de empresas dedicadas a la compra-venta de vehículos: turismos, vehículo industriales además de gestión de talleres, venta de accesorios y alquiler.

Hoy en día son más los profesionales dedicados a la compraventa de vehículos que usan la aplicación 9CARS para registrar los pedidos de los clientes. Atrás quedaron los tiempos en los que la información se anotaban en hojas de Excel, “carpetas”, e incluso en papel y en muchos casos, eran el origen del caos que se formaba en la administración de pequeñas empresas. Seguro que en más de una ocasión te ha tocado, como responsable de tu negocio, interminables y estresantes horas en la administración para la introducción de los datos del vehículo, las fotografías, los gastos, el seguimiento de clientes, estudio de márgenes comerciales, la publicación tediosa del vehículos junto a sus fotografías en internet, la facturación además de emisión de contratos… e impidiendo dedicar más tiempo a la dirección de tu negocio y personal.

Uno de los programas que han descubierto los profesionales del sector que les ha liberado de un trabajo tedioso y les hace sentir satisfechos y permite ser instalado tanto en una estación de trabajo, pequeña red de usuarios, como en una tablet, evitando tener que comprar costosos software de ERP de concesionarios y equipos específicos para su uso. El sistema envía por ejemplo un email de la ficha de un vehículo a un cliente potencial, publicación automatizada de vehículos a los portales o imprimir en un instante un contrato compraventa de manera instantánea, etc. Otras de las grandes ventajas es que no necesita grandes conocimientos informáticos, se ha enriquecido durante una década las continuas aportaciones y el conocimiento adquirido de nuestros clientes, lo que facilita su uso intuitivo.


Ver nuestras soluciones ERP sectoriales

]]>
nougir@nougir.com (nougir) Blog Tue, 03 Mar 2020 15:37:31 +0000
Beneficios de los sistemas ERP para las pymes https://nougir.com/blog-3/item/32-beneficios-de-los-sistemas-erp-para-las-pymes https://nougir.com/blog-3/item/32-beneficios-de-los-sistemas-erp-para-las-pymes Beneficios de los sistemas ERP para las pymes
Las pymes pueden obtener una variedad de beneficios al implementar un sistema de planificación de recursos empresariales (ERP, por sus siglas en inglés, enterprise resource planning). La planificación de recursos empresariales (ERP) es un software que integra todos los departamentos y funciones de una empresa en un solo sistema, al tiempo que satisface las necesidades específicas de cada departamento.
Está diseñado para ayudar a las empresas a tomar decisiones más inteligentes, servir mejor a sus clientes y trabajar de manera más eficiente en general mediante la automatización de procesos y flujos de trabajo.

El software ERP es importante porque puede facilitar lo siguiente:



    Admnistrar el crecimiento
  • Administrar el crecimiento: a medida que su empresa crezca, mantener simplificadas las funciones y operaciones de su negocio se convertirá en la clave para asumir con éxito ese crecimiento con facilidad. El crecimiento empresarial se puede gestionar de forma proactiva al permitir que el usuario tome decisiones rápidas y precisas, evitando retrasos. Esto permite a las empresas proteger su reputación al continuar cumpliendo con las expectativas del cliente. ERP también brinda oportunidades para pronosticar el software a donde se dirige mostrando una visión general clara de la posición de la empresa mientras analiza las áreas de éxito. También puede medir el beneficio estimado con los reales.


  • Centralizar datos
  • Centralice los datos: la información en tiempo real es crucial si desea ver una descripción precisa del flujo de trabajo de fabricación que se produce en un momento dado. Por ejemplo, los fabricantes pueden seguir fácilmente el progreso de un trabajo desde la cotización hasta el pedido, la programación, la producción, la entrega y el pago de la factura. También permite una mayor comunicación entre los equipos y el intercambio de información, así como realizar un seguimiento de los problemas y tareas pendientes.


  • Admnistrar el crecimiento
  • Procesos automatizados: los métodos tradicionales para administrar las operaciones comerciales a menudo resultan en que los usuarios tengan que navegar operaciones complejas, repetir la entrada de datos y pasar tiempo buscando información y uniéndola. Algunas empresas incluso utilizan sistemas de archivo en papel sin otra forma de flujo de trabajo digital que las hojas de cálculo. El software ERP elimina la necesidad de esto al crear un sistema eficiente que vincula la información adecuada y automatiza muchos de los procesos, ahorrando tiempo y aumentando la productividad.


  • Centralizar datos
  • Reduzca los costos: siempre habrá costos de invertir en un sistema ERP, pero todas sus funciones estarán en un solo lugar, eliminando la necesidad de integración con costosas aplicaciones de terceros. El tiempo es dinero, por lo que crear procesos optimizados da como resultado costos reducidos para sus tareas administrativas y operativas. El intercambio mejorado de información permitido por los sistemas ERP también detiene la necesidad de que varios departamentos repitan el análisis, creando una organización coherente que actúa como un solo cuerpo. La eficiencia mejorada de los sistemas ERP mantiene los niveles de eficiencia, lo que resulta en menos costos de capital y reduce los tiempos perdidos.


  • cliente
  • Mejorar el servicio al cliente: los clientes tienen grandes expectativas de los servicios de las empresas, por lo que si no puede cumplir sus promesas, irán a otro lado. En otras palabras, cambiarán a sus competidores. Tener un sistema de gestión de eficiente es ideal para mejorar el servicio al cliente. La formulación de escalas de tiempo precisas y planes de programación resulta en la entrega oportuna del producto o servicio y promete cumplirse con éxito. A su vez, los niveles de satisfacción del cliente serán más altos, mejorando la reputación de su negocio y asegurando pedidos repetidos.


En resumen:


  • Aumentar la comunicación efectiva entre departamentos.
  • Permita que los empleados accedan a la información que necesitan desde cualquier lugar.
  • Agilice los procesos en varios departamentos.
  • Proporcionar una vista panorámica de las operaciones generales de una empresa.
  • Administrar mejor las finanzas de una empresa.
  • Estos beneficios conducen a una mayor productividad, operaciones más eficientes y menos errores.
  • ERP puede ser beneficioso desde el punto de vista de marketing porque le ayuda a ver cómo está funcionando su negocio en su conjunto, revelando áreas de oportunidad donde se pueden realizar mejoras. ERP proporciona datos y análisis valiosos que lo ayudarán a comprender mejor a sus clientes y le brindarán información que puede utilizar para adaptar su estrategia de marketing. También facilita la comunicación efectiva con sus clientes y brinda un mejor servicio al cliente.

Ver nuestras soluciones ERP sectoriales

]]>
nougir@nougir.com (nougir) Blog Sat, 01 Feb 2020 15:06:00 +0000
Los servicios y aplicaciones que lo han cambiado todo en la última década. https://nougir.com/blog-3/item/31-los-servicios-y-aplicaciones-que-lo-han-cambiado-todo-en-la-ultima-decada https://nougir.com/blog-3/item/31-los-servicios-y-aplicaciones-que-lo-han-cambiado-todo-en-la-ultima-decada Los servicios y aplicaciones que lo han cambiado todo en la última década.
La tecnología ha cambiado el mundo de muchas maneras durante la última década. La tecnología de la medicina ha permitido la creación de robots y operaciones quirúrgicas a distancia, ha reducido las posibilidades de infección y enfermedad, ha acelerado el proceso de entrega de medicamentos y creación de medicamentos específicos que salvan vidas.

Cada día, la tecnología está creando más avances para combatir enfermedades graves que han resultado en una alta mortalidad en el pasado. La investigación con células madre ofrece a los pacientes una nueva oportunidad de vida, al igual que las extremidades artificiales. He aquí algunos ejemplos:

Viajar

Atrás quedaron los días en que hacíamos cola para comprar billetes de avión. No más hablar por teléfono con el agente de viajes para obtener buenas ofertas. Ahora, el viaje está en línea y cambió para siempre. Puedes conectarte en línea para buscar tu destino y encontrar la información que necesitas. Desde dónde alojarte hasta qué ponerte allí, se puede encontrar toda la información de viaje. Ahora, puedes rastrear un vuelo, tren o automóvil, puede usar el GPS para encontrar un destino, puede reservar y cancelar viajes en línea y planificar tus viajes hasta el último minuto.

Finanzas

¿Cuándo fue la última vez que fuiste a un banco para sacar dinero o actualizar tu libreta? Difícil de recordar, ¿no? La tecnología ha hecho que el mundo de la banca y las finanzas sea accesible para todos. Puede realizar todas sus transacciones bancarias en línea mediante tu app del móvil, vigilar tu cartera de acciones e invertir en fondos de tu agrado sin moverse de casa.

Compras y juegos

Cada vez más personas eligen comprar en línea. Gracias a la tecnología, las grandes cadenas minoristas tienen sitios web donde puedes comprar cualquier cosa, desde un alfiler hasta un avión. Los clientes tienen muchas opciones, las ofertas son casi irresistibles y la entrega es sin problemas.

Desde el fútbol de la liga hasta ver partidos con Internet de alta velocidad, el mundo de los juegos y el juego ha cambiado para siempre. Los juegos en línea están en pleno auge y ganando popularidad todos los días. Hay miles y miles de sitios y aplicaciones que ofrecen nuevas formas de experimentar los juegos. La tecnología ha traído todo tipo de juegos, desde la realidad aumentada hasta las apuestas online, directamente a tu hogar, para jugar, practicar y sobresalir.

Conservación de la naturaleza

Un tema vital en el mundo de hoy, los esfuerzos de conservación se han beneficiado de la tecnología. Desde la tecnología de drones para controlar animales y aves, hasta chips incrustados para realizar un seguimiento de los movimientos y nacimientos, la tecnología está ayudando a personas comprometidas en todas partes a hacer del planeta un lugar mejor. Las corrientes oceánicas, el aumento de las temperaturas, la fusión de los glaciares, la deforestación y la forestación, la tecnología nos está ayudando a seguir la naturaleza.

Emprendimiento

Hubo un tiempo en que las pequeñas y medianas empresas no podían operar más allá de las ventas locales. Ahora, estos sitios tienen sitios web y cada vez más personas se familiarizan con ellos y sus productos y servicios. Las empresas tienen clientes de todo el mundo, aportando una valiosa experiencia y conocimientos a su paso.

Medios de comunicación social

Las redes sociales han definido la década con seguridad. Desde el comportamiento del influencer hasta la búsqueda de nuevos amigos, la presencia en las redes sociales ha sido omnipresente. Instagram es una delicia visual, Twitter es para una respuesta inteligente, y los canales de YouTube pueden enseñarle todo, desde cómo cocinar hasta cómo armar una tienda de campaña.

Feliz 2020.

]]>
nougir@nougir.com (nougir) Blog Thu, 02 Jan 2020 14:25:41 +0000
Google dice que fabrica el primer ordenador cuántico de la historia y actualmente lidera la supremacía cuántica. https://nougir.com/blog-3/item/30-google-dice-que-fabrica-el-primer-ordenador-cuantico-de-historia-y-actualmente-lidera-la-supremacia-cuantica https://nougir.com/blog-3/item/30-google-dice-que-fabrica-el-primer-ordenador-cuantico-de-historia-y-actualmente-lidera-la-supremacia-cuantica Google dice que fabrica el primer ordenador cuántico de la historia y actualmente lidera la supremacía cuántica.
Google comenta en este 2019 que finalizamos que uno de sus ordenadores avanzados ha logrado la "supremacía cuántica" por primera vez, superando el rendimiento de los dispositivos convencionales.

La compañía dice que su ordenador cuántico es el primero en realizar un cálculo que sería prácticamente imposible para una máquina clásica.

El procesador cuántico, llamado Sycamore, del gigante de la tecnología fue capaz de realizar una tarea específica en 200 segundos que tomaría la mejor supercomputadora del mundo 10,000 años en completarse.

Los científicos han estado trabajando en computadoras cuánticas durante décadas porque prometen velocidades mucho más rápidas.

¿Cómo funciona la computación cuántica?

En las computadoras clásicas, la unidad de información se denomina "bit" y puede tener un valor de 1 o 0. Pero su equivalente en un sistema cuántico, el qubit (bit cuántico), puede ser 1 y 0 al mismo tiempo.

Este hecho abre la puerta para que se realicen múltiples cálculos simultáneamente. Pero los qubits deben sincronizarse utilizando un efecto cuántico conocido como entrelazamiento, que Albert Einstein llamó "acción espeluznante a distancia".

Sin embargo, los científicos han luchado por construir dispositivos de trabajo con suficientes qubits para que sean competitivos con los tipos convencionales de computadoras.

El procesador cuántico Sycamore contiene 54 qubits, aunque uno de ellos no funcionó, por lo que el dispositivo funcionó con 53 qubits.

En su artículo de Nature, John Martinis de Google, en Mountain View, y sus colegas configuraron al procesador como una tarea de muestreo aleatorio, donde produce un conjunto de números que tiene una distribución verdaderamente aleatoria.

Sycamore pudo completar la tarea en tres minutos y 20 segundos. Por el contrario, los investigadores afirman en su artículo que Summit, la mejor supercomputadora del mundo, tardaría 10.000 años en completar la tarea.

"Es un dispositivo impresionante y ciertamente un hito impresionante. Todavía estamos a décadas de distancia de una computadora cuántica real que pueda resolver los problemas que nos interesan", dijo el profesor Jonathan Oppenheim, de UCL, que no participó en el último estudio, dijo a BBC News.

"Es una prueba interesante, muestra que tienen mucho control sobre su dispositivo, muestra que tienen bajas tasas de error. Pero no está cerca del tipo de precisión que necesitaríamos para tener una computadora cuántica a gran escala".

¿Es cuestionable la afirmación de Google?

IBM, que ha estado trabajando en computadoras cuánticas propias, cuestionó algunas de las cifras de Google, dijeron los investigadores de IBM Edwin Pednault, John Gunnels y Jay Gambetta en una publicación de blog:

"Argumentamos que una simulación ideal de la misma tarea se puede realizar en un sistema clásico en 2.5 días y con mucha mayor fidelidad"

"Esta es, de hecho, una estimación conservadora, en el peor de los casos, y esperamos que con mejoras adicionales el costo clásico de la simulación pueda reducirse aún más".

También cuestionaron la definición de Google de supremacía cuántica y argumentaron:

"Primero porque por su definición más estricta, el objetivo no se ha cumplido. Pero más fundamentalmente, porque las computadoras cuánticas nunca reinarán sobre las computadoras clásicas, sino que trabajarán en concierto con ellas, ya que cada una tiene sus fortalezas únicas. "

Las aplicaciones son todavía limitadas

Este logro de Google podría beneficiar la computación cuántica al atraer a más científicos e ingenieros informáticos al campo. Pero también este tipo de noticias pueden crear la impresión de que las computadoras cuánticas están más cerca de las aplicaciones prácticas convencionales de lo que realmente están. Induciría a pensar que derrotarán a las computadoras normales y de aquí a dos años y tendremos una en nuestra casa".

En realidad los científicos aún no han demostrado que una computadora cuántica programable pueda resolver una tarea útil que no se puede hacer de otra manera, como calcular la estructura electrónica de una molécula particular, un problema de alta dificultad que requiere modelar múltiples interacciones cuánticas. Otro paso importante es demostrar la supremacía cuántica en un algoritmo que utiliza un proceso conocido como corrección de errores, un método para corregir los errores inducidos por el ruido que de otro modo arruinarían un cálculo. Los físicos creen que esto será esencial para que las computadoras cuánticas funcionen a escala.

Google está trabajando para alcanzar estos dos hitos y revelará los resultados de sus experimentos en los próximos meses.

De todos modos puede tener aplicaciones prácticas: Google ha creado un protocolo para usar dicho cálculo para demostrar al usuario que los bits generados por un generador cuántico de números aleatorios realmente son aleatorios. Esto podría ser útil, por ejemplo, en criptografía, cuya seguridad se basa en claves aleatorias.

Los ingenieros de Google tuvieron que llevar a cabo una serie de mejoras en su hardware para ejecutar el algoritmo, incluida la construcción de nuevos dispositivos electrónicos para controlar el circuito cuántico e idear una nueva forma de conectar qubits. Esta es realmente la base de cómo vamos a escalar en el futuro. Creo que esta arquitectura básica es el camino a seguir.

]]>
nougir@nougir.com (nougir) Blog Sun, 01 Dec 2019 15:46:00 +0000
La historia del origen de Internet II parte. https://nougir.com/blog-3/item/29-la-historia-del-origen-de-internet-ii-parte https://nougir.com/blog-3/item/29-la-historia-del-origen-de-internet-ii-parte La historia del origen de  Internet II parte.

Continuando del anterior post para seguir con nuestra historia. En 2010 nacen nuevos modelos de negocio: venta de información, pago-por-reputación, consumo colaborativo y productos virtuales. En ese mismo año también fue el despegue de las Redes Sociales del crowd-sourcing, profesionalización de las redes y videojuegos compartidos.

El inicio del marketing social y optimización. Un año posterior 2011 en los nuevos smartphones se comienzan a implantar nuevas funcionalidades (NFC, seguridad asistida) y conexiones mejoradas (WiMAX, 4G y MiFi).

Además nuevas formas de comercio electrónico aparecen por medio del móvil como m-commerce y las redes sociales.

La primera revolución de los medios de ocio

  • Como juegos sociales, consumo a la carta (Netflix, Spotify), redes sociales en la nueva televisión, plataformas (Google TV, Apple TV).
  • Información: datos públicos, licencias flexibles, web semántica, microformatos, el éxito de los sitios de preguntas y respuestas.
  • Geoposicionamiento: uso en el comercio local (Foursquare, Google Places, Facebook Places) redes privadas y geofencing.
  • Contexto tecnológico: la nube (cloud computing, el software como servicio (SaaS), las aplicaciones web y sus mercados, los nuevos estándares (HTML5, WebM).
  • Ciudadanos web: neutralidad de red, e-Administración.

En el 2012 aparace el Social + Local + Móvil una fórmula del éxito para el comercio físico y electrónico.

  • Nuevos medios de pago aparecen y comienza la revolución del Fintech en la gran batalla para convertir a los móviles en las nuevas plataformas de pago, desde servicios como Stripe o Paypal Here a tecnologías como NFC.
  • La era post-PC trae los nuevos dispositivos y la nube como eje digital, el futuro de los sistemas operativos, implicaciones en el ocio personal, el salto a la televisión y el automóvil.
  • Aplicaciones: propagación desde el móvil al escritorio y el salón, interacción por voz y movimiento, aplicaciones online.
  • Micro-contenidos: el contenido sigue siendo el rey, pero se reduce o fragmenta en todos sus formatos (textos, imágenes, música o juegos).
  • HTML5: el estándar que está redefiniendo Internet. Videojuegos, aplicaciones, sistemas operativos, todo es posible con HTML5.
  • Educación: despidiendo modelos del siglo pasado, formación especializada a la carta, titulaciones universitarias online, el rol de los nuevos dispositivos en el aula.
  • Objetos 3D: el nacimiento de una nueva industria, impresoras 3D y galerías compartidas de productos en Internet.

Lo destacado en Internet 2013: Post-PC

  • Internet más portátil que nunca, ropa inteligente y dispositivos que registran tu vida.
  • HTML5: el estándar que está redefiniendo Internet.
  • Social: la evolución de las redes y juegos sociales.
  • Nuevos perfiles profesionales (growth hacker).

El auge de los contenidos exclusivos para Internet.

  • Big Data: el procesamiento masivo de información que está transformado industrias enteras.
  • Bitcoin: ¿realmente Internet ha creado una nueva moneda?
  • Viajes: nuevas ideas y proyectos que siguen innovando la organización de viajes online.
  • Impresión 3D: cómo sacar provecho a la nueva revolución industrial.
  • Comercio: nuevos hábitos de consumo, convergencia entre el comercio físico y comercio electrónico, casos de éxito.

Entre 2014 hasta 2016: El futuro del trabajo: automatización, big data y robótica.

  • Wearables y quantified self: dispositivos para la salud, "hardware as a service" y la nueva realidad aumentada.
  • La privacidad como negocio: aplicaciones y dispositivos para proteger a los usuarios.
  • Tecnologías disruptivas: descubre cómo la tecnología está retando a los negocios tradicionales (transporte, banca, turismo).
  • Internet de las cosas: objetos inteligentes también en el hogar (bombillas, termostatos, televisores).
  • Educación: formación continua y especializada a la carta, competencias esenciales para nuevos profesionales.
  • Contenidos: la nueva batalla por la televisión (Android TV, Amazon Fire, Apple TV y Xbox).
  • China: factores clave de su crecimiento en Internet.
  • Móvil: la lucha entre apps y web móvil ya tiene vencedor; nuevos usos del móvil en el comercio.

Internet invisible: más allá de la era post-PC. Internet como servicio transparente y ubicuo.

  • Hogar: avances en la integración de Internet en el ámbito doméstico.
  • Automóvil: la revolución inminente del transporte, sistemas de predicción de tráfico y nuevas tecnologías de seguridad.
  • Realidad aumentada y virtual: Oculus Rift, Magic Leap y HoloLens, profundizando en la integración de humanos e Internet.
  • Inteligencia artificial: autoaprendizaje en máquinas, chips basados en estructura cerebral, la inteligencia artificial como pieza de la evolución humana.
  • Dinero invisible: avances definitivos en pagos electrónicos, crecimiento de la banca móvil, finanzas P2P.

En 2017-2018 son algunos de los puntos destacados:

  • Las ventas de “smartphones”, dispositivos móviles con conexión a internet, se está desacelerando. El crecimiento de este renglón fue de un solo 3% el pasado año frente al 10% del año anterior. En el crecimiento de ventas, los Android aventajan a los de otros sistemas operativos. Sin embargo, en general los móviles continúan creciendo en la preferencia del usuario sobre los ordenadores tradicionales, sobre todo gracias a las redes sociales, con un incremento a tres horas diarias como promedio.
  • No es de extrañarse que en uno de los gráficos más esperados del informe se comprueba que sigue creciendo la disparidad entre el consumo y las inversiones publicitarias en los periódicos, donde las inversiones representan un mayor porcentaje del total que las horas dedicadas por la audiencia. Mientras tanto, la brecha de oportunidad está abierta en las plataformas móviles.
  • En otra buena noticia para Alexa y Google, los usuarios prefieren utilizar su voz para interactuar con los buscadores. El 20% de las consultas móviles se hicieron a través de voz en 2016.
  • El mayor crecimiento está en China y en India. China continúa siendo un mercado muy atractivo sobre todo por el gran crecimiento de servicios móviles como los pagos por medio de celular.
  • Por su parte, el número de usuarios de Internet en la India, el mercado de mayor crecimiento, se elevó más del 28% en 2016.
  • El consumo se concentra en la música digital y los juegos interactivos en línea. Los juegos electrónicos están creciendo a pasos agigantados y un número creciente de “millennials” crecieron con ellos. En 1995 había 100 millones de jugadores de videojuegos. En 2017, más de 2.600 millones. Meeker destaca la afición de grandes empresarios como Elon Musk o Mark Zuckerberg. Este mercado mueve más de 100 mil millones de dólares anuales.
  • ¿Hacia dónde se dirige el futuro de Internet?

    Solo podemos suponer que Internet continuará creciendo. En los próximos años veremos un crecimiento acelerado de la red, gracias al número cada vez mayor de dispositivos conectados. Hoy tenemos teléfonos móviles, tablets, relojes inteligentes, televisores y asistentes como el de Google o Alexa de Amazon. Ya han comenzado a sumarse termostatos y otros electrodomésticos. Además, no hay que olvidar los dispositivos que instalarán las ciudades inteligentes para medir y gestionar en forma eficiente sus recursos. Las redes deberán implementar la tecnología 5G con rapidez para hacer frente al aluvión de conexiones necesarias para que la información del Internet de las Cosas circule sin dificultades.

    En paralelo, se necesitarán otras formas de acceso a internet para cubrir los nuevos mercados que suman más usuarios para la red y que no cuentan con redes de telecomunicaciones adecuadas. Google y SpaceX exploran el uso de globos a gran altitud o de microsatélites. Facebook se inclina por trabajar con compañías locales para ofrecer servicios móviles a precios accesibles, mientras que Microsoft quiere aprovechar las frecuencias que no son utilizadas por la transmisión de televisión para ofrecer ancho de banda inalámbrico.

]]>
nougir@nougir.com (nougir) Blog Sat, 02 Nov 2019 15:06:00 +0000
La historia del origen de Internet I parte https://nougir.com/blog-3/item/28-la-historia-del-origen-de-internet-i-parte https://nougir.com/blog-3/item/28-la-historia-del-origen-de-internet-i-parte La historia del origen de Internet I parte

Si bien la historia completa de Internet podría llenar fácilmente algunos libros, este post intentaré resumir los hitos y eventos clave relacionados con el crecimiento y la evolución de Internet entre 1969 y 2009. En un siguiente post expondré hasta hoy.

En 1969 nacimiento y normalización hasta 1979


Arpanet en 1969, hace 50 años, fue la primera red real que se ejecutó con tecnología de conmutación de paquetes (nueva en ese momento). El 29 de octubre de 1969, las computadoras de Stanford y UCLA se conectaron por primera vez. En efecto, fueron los primeros anfitriones de lo que algún día se convertiría en Internet.

Se suponía que el primer mensaje enviado a través de la red era "Iniciar sesión", pero según los informes, el enlace entre las dos universidades se bloqueó en la letra "g".

Ese mismo año 1969 fue el nacimiento de Unix : el sistema operativo cuyo diseño influyó en el posterior nacimiento de Linux y FreeBSD (los sistemas operativos más populares en los servidores web / servicios de alojamiento web actuales).

En 1970 se estableció una red Arpanet entre Harvard, MIT y BBN (la compañía que creó las computadoras con "procesador de mensajes de interfaz" para conectarse a la red).

Un año más tarde el correo electrónico, tan habitual entre nosotros, fue desarrollado por primera vez en 1971 por Ray Tomlinson , quien también tomó la decisión de usar el símbolo "@" para separar el nombre de usuario del nombre de la computadora (que más tarde se convirtió en el nombre de dominio).

Uno de los desarrollos más impresionantes en ese mismo año fue el inicio del Proyecto Gutenberg . El Proyecto Gutenberg, para aquellos que no están familiarizados, es un esfuerzo global para hacer que los libros y documentos de dominio público estén disponibles electrónicamente, de forma gratuita, en una variedad de libros electrónicos y formatos electrónicos.

Comenzó cuando Michael Hart obtuvo acceso a un gran bloque de tiempo de computación y se dio cuenta de que el futuro de las computadoras no estaba en la computación misma, sino en el almacenamiento, recuperación y búsqueda de información que, en ese momento, solo estaba contenida en bibliotecas Escribió manualmente (sin OCR en ese momento) la "Declaración de Independencia" y lanzó el Proyecto Gutenberg para hacer que la información contenida en los libros esté ampliamente disponible en formato electrónico. En efecto, este fue el nacimiento del libro electrónico.

Un año más tarde Francia comenzó su propio proyecto tipo Arpanet en 1972, llamado CYCLADES . Si bien Cyclades finalmente se cerró, fue pionera en una idea clave : la computadora host debería ser responsable de la transmisión de datos en lugar de la red misma.

Otro hito interesante cuando Arpanet hizo su primera conexión transatlántica en 1973, con el University College de Londres. Durante el mismo año, el correo electrónico representó el 75% de toda la actividad de la red Arpanet.

El siguiente año 1974 fue un año decisivo, se publicó una propuesta para vincular redes similares a Arpa en una llamada "entre redes", que no tendría control central y funcionaría en torno a un protocolo de control de transmisión (que eventualmente se convirtió en TCP / IP ).

Con la popularidad del correo electrónico, el primer programa moderno de correo electrónico fue desarrollado por John Vittal , un programador de la Universidad del Sur de California en 1975. El mayor avance tecnológico que hizo este programa (llamado MSG) fue la adición de "Responder" y "Reenviar" como funcionalidad.

1977 fue un gran año para el desarrollo de Internet tal como lo conocemos hoy. Es el año en que se presentó el primer módem para PC , desarrollado por Dennis Hayes y Dale Heatherington , que inicialmente se vendió a aficionados a la informática .

El primer sistema de tablón de anuncios (BBS) se desarrolló durante una tormenta de nieve en Chicago en 1978.

Ese mismo año es también trajo el primer mensaje de correo electrónico comercial no solicitado (más tarde conocido como spam ), enviado a 600 usuarios de California Arpanet por Gary Thuerk.

El precursor de World of Warcraft y Second Life se desarrolló en 1979 y se llamaba MUD (abreviatura de MultiUser Dungeon). Los MUD eran mundos virtuales completamente basados en texto , combinando elementos de juegos de rol, interactivos, de ficción y chat en línea.

Ese año también introdujo la escena Usenet, creada por dos estudiantes graduados. Usenet era un sistema de discusión basado en Internet , que permitía a personas de todo el mundo conversar sobre los mismos temas publicando mensajes públicos clasificados por grupos de noticias.

La Organización Europea para la Investigación Nuclear (más conocida como CERN ) lanzó INQUIRE (escrito por Tim Berners-Lee ), un programa de hipertexto que permitió a los científicos del laboratorio de física de partículas realizar un seguimiento de las personas, el software y los proyectos que usan hipertexto (hipervínculos).

Fase primera expansión entre 1979-1989


El primer emoticon ;-) utilizado en muchos dispositivos en 1979, si bien muchas personas atribuyen a Kevin MacKenzie la invención del emoticón en 1979, fue Scott Fahlman en 1982 quien propuso usarlo después de una broma, en lugar del original, propuesto por MacKenzie. El emoticono moderna nació .

El 1 de enero de 1983 era la fecha límite para que las computadoras Arpanet cambiaran a los protocolos TCP / IP desarrollados por Vinton Cerf. Unos cientos de computadoras se vieron afectadas por el cambio. El servidor de nombres también se desarrolló en ese mismo año.

El sistema de nombres de dominio se creó en 1984 junto con los primeros servidores de nombres de dominio (DNS). El sistema de nombres de dominio era importante porque hacía que las direcciones en Internet fueran más amigables para los humanos en comparación con sus contrapartes numéricas de direcciones IP. Los servidores DNS permitieron a los usuarios de Internet escribir un nombre de dominio fácil de recordar y luego convertirlo a la dirección IP automáticamente.

1985 trajo el desarrollo de The WELL (abreviatura de Whole Earth 'Lectronic Link), una de las comunidades virtuales más antiguas aún en funcionamiento. Fue desarrollado por Stewart Brand y Larry Brilliant en febrero del '85. Comenzó como una comunidad de lectores y escritores de Whole Earth Review y fue una reunión intelectual abierta pero "notablemente alfabetizada y desinhibida". Wired Magazine una vez llamó a The Well “ La comunidad en línea más influyente del mundo. "

Las llamadas guerras de protocolo comenzaron en 1986. Los países europeos en ese momento perseguían la interconexión de sistemas abiertos (OSI), mientras que Estados Unidos usaba el protocolo de Internet / Arpanet , que finalmente ganó.

Para 1987, había casi 30,000 hosts en Internet . El protocolo Arpanet original se había limitado a 1,000 hosts, pero la adopción del estándar TCP / IP hizo posible un mayor número de hosts.

También en 1988, se implementó por primera vez Internet Relay Chat (IRC), allanando el camino para el chat en tiempo real y precursor de los programas de mensajería instantánea que usamos hoy.

Uno de los primeros grandes gusanos de Internet se lanzó en 1988. Conocido como "El gusano de Morris", fue escrito por Robert Tappan Morris y causó interrupciones importantes en grandes partes de Internet.

Cuando Apple se retiró del programa AppleLink en 1989, se cambió el nombre del proyecto y nació America Online. AOL, que todavía existe hoy en día, hizo que Internet fuera popular entre los usuarios promedio de Internet .

1989 también trajo consigo la propuesta de la World Wide Web , escrita por Tim Berners-Lee. Fue publicado originalmente en la edición de marzo de MacWorld, y luego redistribuido en mayo de 1990. Fue escrito para persuadir al CERN de que un sistema de hipertexto global era lo mejor para el CERN. Originalmente se llamaba "Mesh" ; el término "World Wide Web" fue acuñado mientras Berners-Lee estaba escribiendo el código en 1990.

1990 también trajo consigo el primer proveedor comercial de acceso telefónico a Internet, The World . El mismo año, Arpanet dejó de existir.

El código para la World Wide Web fue escrito por Tim Berners-Lee, basado en su propuesta del año anterior, junto con los estándares para HTML, HTTP y URL.

1991 trajo algunas innovaciones importantes al mundo de Internet. Se creó la primera página web y, al igual que el primer correo electrónico explicaba qué era el correo electrónico, su propósito era explicar qué era la World Wide Web.

También en el mismo año, se lanzó el primer protocolo de búsqueda que examinó el contenido de los archivos en lugar de solo los nombres de los archivos, llamado Gopher .

Además, el formato de archivo MP3 fue aceptado como estándar en 1991. Los archivos MP3, al estar muy comprimidos, se convirtieron en un formato de archivo popular para compartir canciones y álbumes completos a través de Internet.

Sin embargo, uno de los desarrollos más interesantes de esta era fue la primera cámara web . Fue implementado en un laboratorio de computación de la Universidad de Cambridge, y su único propósito era monitorear una cafetera en particular para que los usuarios de laboratorio pudieran evitar viajes desperdiciados a una cafetera vacía.

Mosaic y Netscape Navigator los primeros navegadores populares

El primer navegador de Internet ampliamente descargado, Mosaic , se lanzó en 1993. Si bien Mosaic no fue el primer navegador web, se considera el primer navegador que hace que Internet sea fácilmente accesible para los no técnicos.

En 1993, tanto la Casa Blanca como las Naciones Unidas entraron en línea, marcando el comienzo de los nombres de dominio .gov y .org.

El primer gran competidor de Mosaic, Netscape Navigator , fue lanzado el año siguiente (1994).

1995 se considera a menudo el primer año en que se comercializó la web. Si bien hubo empresas comerciales en línea antes del '95, hubo algunos desarrollos clave que ocurrieron ese año. Primero, el cifrado SSL (Secure Sockets Layer) fue desarrollado por Netscape, por lo que es más seguro realizar transacciones financieras (como pagos con tarjeta de crédito) en línea.

Además, dos grandes empresas en línea comenzaron el mismo año. La primera venta en "Echo Bay" se realizó ese año. Echo Bay más tarde se convirtió en eBay . Amazon.com también comenzó en 1995, aunque no obtuvo ganancias durante seis años, hasta 2001.

Otros desarrollos importantes ese año incluyeron el lanzamiento de Geocities (que se cerró oficialmente el 26 de octubre de 2009).

Java y JavaScript (originalmente llamado LiveScript por su creador, Brendan Eich , y desplegado como parte del navegador Netscape Navigator - ver comentarios para explicación ) se introdujo por primera vez al público en 1995. ActiveX fue lanzado por Microsoft al año siguiente.

En 1996, se lanzó HoTMaiL (las letras en mayúscula son un homenaje a HTML ), el primer servicio de correo web.

Si bien los primeros blogs han existido durante algunos años de una forma u otra, 1997 fue el primer año en que se utilizó el término " weblog ".

En 1998, la primera noticia importante que se publicó en línea fue el escándalo Bill Clinton / Monica Lewinsky (también conocido como "Monicagate" entre otros apodos), que se publicó en The Drudge Report después de que Newsweek mató la historia .

El buscador de referencia obligada Google se lanzó en 1998, revolucionando la forma en que las personas encuentran información en línea.

En 1998 también, Napster se lanzó, abriendo las puertas para compartir archivos de audio en Internet.

1999 es el año en que se lanzó uno de los proyectos más interesantes: el proyecto SETI @ home , lanzado. El proyecto ha creado el equivalente de una supercomputadora gigante al aprovechar la potencia informática de más de 3 millones de computadoras en todo el mundo, utilizando sus procesadores cada vez que se enciende el protector de pantalla, lo que indica que la computadora está inactiva. El programa analiza los datos del radiotelescopio para buscar signos de inteligencia extraterrestre.

El estallido de la burbuja puntocom en el 2000 y el nacimiento de la web 2.0 en 2004


2000 fue el año del colapso de las puntocom , lo que resultó en enormes pérdidas para las legiones de inversores. Cientos de empresas cerraron, algunas de las cuales nunca habían generado ganancias para sus inversores. El NASDAQ, que enumeró una gran cantidad de compañías tecnológicas afectadas por la burbuja, alcanzó un máximo de más de 5,000, luego perdió el 10% de su valor en un solo día y finalmente tocó fondo en octubre de 2002.

Con el colapso de las puntocom todavía vigente al año siguiente Wikipedia lanzó en 2001, uno de los sitios web que allanó el camino para la generación colectiva de contenido web / redes sociales.

En 2003: Skype se lanzó al público, brindando una interfaz fácil de usar para llamadas de voz sobre IP.

También en 2003, MySpace abre sus puertas. Más tarde se convirtió en la red social más popular a la vez (aunque desde Otro avance importante en 2003 fue la firma de la Ley de Control del Asalto a la Pornografía y Comercialización No Solicitada de 2003, más conocida como la Ley CAN-SPAM.

Aunque acuñado en 1999 por Darcy DiNucci, el término "Web 2.0", que se refiere a sitios web y aplicaciones de Internet enriquecidas (RIA) que son altamente interactivas y dirigidas por los usuarios, se hizo popular alrededor de 2004. Durante la primera conferencia Web 2.0, John Batelle y Tim O 'Reilly describió el concepto de " la Web como una plataforma ": aplicaciones de software creadas para aprovechar la conectividad a Internet, alejándose del escritorio (que tiene inconvenientes como la dependencia del sistema operativo y la falta de interoperabilidad).

El término "redes sociales", que se cree fue utilizado por primera vez por Chris Sharpley, fue acuñado en el mismo año en que "Web 2.0" se convirtió en un concepto general. Las redes sociales, sitios y aplicaciones web que permiten a sus usuarios crear y compartir contenido y conectarse entre sí, comenzaron alrededor de este período. A las personas les encantó la idea de poder viajar a través de las fotos y aventuras de sus amigos y familiares, a pesar de no estar físicamente presentes.

Digg , un sitio de noticias sociales , lanzado en noviembre de 2004, allanando el camino para sitios como Reddit y Mixx. Digg revolucionó los medios tradicionales de generar y encontrar contenido web, promoviendo democráticamente noticias y enlaces web que son revisados y votados por una comunidad.

Facebook se lanzó en 2004, aunque en ese momento solo estaba abierto a estudiantes universitarios y se llamaba "The Facebook"; más tarde, "The" se eliminó del nombre, aunque la URL http://www.thefacebook.com todavía funciona.

YouTube se lanzó en 2005, brindando alojamiento y uso compartido de videos en línea gratuitos a las masas.

Twitter se lanzó en 2006. Originalmente se llamaría twittr (inspirado en Flickr); el primer mensaje de Twitter fue "simplemente configurando mi twttr".

En 2007 Apple y las aplicaciones móviles hasta 2009


Hulu se lanzó por primera vez en 2007, una empresa conjunta entre ABC, NBC y Fox para poner a disposición programas populares de televisión para ver en línea.

La mayor innovación de 2007 vino de la mano de Apple con el el iPhone , que fue casi totalmente responsable del renovado interés en las aplicaciones web móviles y el diseño.

La primera " elección por Internet " tuvo lugar en 2008 con la elección presidencial de los Estados Unidos. Fue el primer año que los candidatos nacionales aprovecharon al máximo todo lo que Internet tenía para ofrecer. Hillary Clinton subió a bordo temprano con videos de la campaña de YouTube . Prácticamente todos los candidatos tenían una página de Facebook o un feed de Twitter, o ambos.

El 2009 trajo uno de los cambios más importantes en Internet en mucho tiempo cuando Estados Unidos relajó su control sobre ICANN, el organismo oficial de nombres de Internet (son la organización encargada de registrar los nombres de dominio).

En resumen he intentado resumir los hechos más relevantes, seguro he dejado otros en el tintero. En un próximo post hablaremos de Internet hasta nuestros días.

]]>
Blog Fri, 04 Oct 2019 15:52:08 +0000
Recordando aquellos ordenadores domésticos que fueron más populares en los años 80. https://nougir.com/blog-3/item/27-recordando-aquellos-ordenadores-domesticos-que-fueron-mas-populares-en-los-anos-80 https://nougir.com/blog-3/item/27-recordando-aquellos-ordenadores-domesticos-que-fueron-mas-populares-en-los-anos-80 Recordando aquellos ordenadores domésticos que fueron más populares en los años 80.

Actualmente usamos smartphones, portátiles, tablets y cualquier “caharro” tecnológico a nuestro alcance que nos permite conectarnos a Internet para consultar las últimas noticias, comprar online, consumir contenidos audiovisuales con YouTube o asiduos a las redes sociales como Instagram, Facebook, Twitter y otras, pero solo algunas generaciones recuerdan aquellos tiempos en los que la informática daba sus primeros pasos. Nos referimos a los años 80 y al comienzo de la era de los ordenadores personales antes de la venida de la era Internet y las redes sociales.

Eran los tiempos en los que todos queríamos tener en nuestras manos un aparato revolucionario llamado ordenador personal y entre estos los más exitosos fueron Spectrum, Commodore o Amstrad. Durante esos diez años estas máquinas arrasaron en el mercado vendiendo millones de equipos y algunos aprendimos a programar con BASIC aunque la mayoría nos divertíamos jugando los primeros videojuegos que fueron leyenda. Pero con ninguna de las marcas fue capaz de sobrevivir a los 16 bits. Lo mismo que le ocurrió a Commodore. Un triste final para tres leyendas de los años 80.

Spectrum: el pionero y nos permitió a muchos descubrir la informática

mapa

En 1981, Sinclair lanzó una computadora a un precio entre 39.000 y 50.000 pesetas (230 a 300 euros) y se desarrollaron más de 20.000 juegos. El inventor fue Sir Clive Sinclair, presidente de Sinclair Research, una empresa inglesa y fue el orgullo del Imperio Británico.

También conocido como ZX81, era pequeño, funcionaba en BASIC y Tenía sólo 16K de memoria y su unidad de almacenamiento era una cinta de casete para su procesador de 3.25 MHz. Incluso para los estándares de 1981, era lento, pero por su precio era un punto de entrada atractivo para los aspirantes a aficionados que no podían gastar en unas primeras PC con unos precios desorbitados.

Fue todo un superventas porque se trataba del primer ordenador doméstico con potencia para ejecutar juegos, y nos permitía programar aplicaciones en el lenguaje BASIC. Con tan escasos recursos, y lento que era cargando programas, el Spectrum se convirtió en la computadora más pequeña y barata del mercado vendiendo en cuatro años más de un millón de unidades sólo en España. Debido a que la computadora contenía solo cuatro chips, confiaba en su CPU para manejar todo su procesamiento y verse cualquier pantalla externa a la que estaba conectado. Este pequeño ordenar admitía muchas expansiones, como unidades de disquete y complementos de RAM, que mejoraron en gran medida su funcionalidad.

No pudo competir ante la llegada en los años 90 de los primeros Pcs de 16 bits y 32 bits. Acabó siendo comprada por su rival Amstrad y en la actualidad la marca ha desaparecido.

El Commodore 64: el ordenador premium que marca un antes y un después y el más vendido del mundo.

mapa

El Commodore 64 jugaba en otra liga. Fue lanzado en 1982, el Commodore 64 tenía una CPU de 1MHz y un potente chip de sonido programable y gráficos potentes para una computadora de 1982. Aún mejor, el Commodore 64 por unas 100.000 pesetas (600 euros) tenías un ordenador de 8 bits con gráficos de 16 colores y un sonido espectacular. Tenía 64 KB de RAM (de ahí el nombre). Y el Commodore 64 podría conectarse a un televisor, convirtiéndolo en una consola híbrida de computadora / videojuego. Cuando se lanzó en 1982, las capacidades gráficas del Commodore 64 superaron a otras computadoras populares como la Apple II. La unidad de almacenamiento era un cartucho y poseía una conectividad inigualable para la época.

Gracias a su precio, el Commodore 64 se vendió bien se vendieron más de 17 millones de unidades en el mundo. Y siguió vendiendo. A medida que la computadora se volvió más barata de producir, Commodore redujo el precio, manteniéndolo popular durante la década de 1980. Continuó produciéndose hasta 1994. Por desgracia, la compañía no supo evolucionar y los modelos que sucedieron al 64, como el Amiga, fracasaron.

El Amstrad CPC 464: recoge lo mejor de Spectrum y Commodore64 de los 80.

mapa Creditos foto Amstrad CPC 464 computer (1984) Autor: Bill Beltram

En 1984, dos años después que sus rivales, la compañía británica Amstrad presentó en sociedad el CPC 464. El Amstrad CPC (Color Personal Computer) 464 fue una computadora doméstica que tuvo un gran éxito en Europa, logrando más de dos millones de ventas. Apareció por primera vez en el mercado en 1984 y su producción se detuvo en 1990.

Al igual que el ZX Spectrum, utilizó una CPU Zilog Z80A de 8 bits, que tenía una velocidad de reloj de 4 MHz. Su memoria alcanzó los 64 KB y una parte del sistema operativo CP / M, una versión del lenguaje de programación BASIC (Locomotive BASIC) junto con el compilador se almacenaron en la ROM de la computadora.

Además, el CPC464 estaba equipado con un reproductor/grabador de cintas incorporado para cargar programas y almacenar datos. El CPC464 fue una de las pocas computadoras hogareñas de esta época que incluía un monitor, que tiene una pantalla monocromática o en color. La compra de este monitor Amstrad fue necesaria, al menos inicialmente, ya que las computadoras CPC no tenían RF ni salida de video compuesto; en su lugar, usaron un conector Din de 6 pines RGB. Sin embargo, Amstrad luego lanzó un adaptador especial de RF que permitía la conexión de estas computadoras con un televisor normal.

Éxito de ventas que hizo a esta empresa hacerse con el 25% de mercado de ordenadores de Europa a finales de la década de los 80. Al igual que sus rivales la llegada de los 16 bits, de los ordenadores clónicos y de las consolas de Nintendo y Sega la dejó en fuera de juego. Su historia parecía encaminada a la bancarrota, como la de Commodore. Pero todo cambió cuando la firma británica se quedó con la exclusividad de fabricar los receptores (decodificadores) de televisión para el operador por satélite Sky.

]]>
Blog Sun, 01 Sep 2019 10:19:00 +0000
¿Qué es un algoritmo en Informática y sus usos?. https://nougir.com/blog-3/item/26-un-algoritmo-en-informatica-y-su-importancia-en-la-programacion https://nougir.com/blog-3/item/26-un-algoritmo-en-informatica-y-su-importancia-en-la-programacion ¿Qué es un algoritmo en Informática y sus usos?.

Sabemos que Facebook, Google y Amazon tienen algoritmos que nos dan actualizaciones, resultados de búsqueda y recomendaciones de productos, pero ¿qué significa eso realmente? ¿Qué califica como algoritmo? ¿Puedes escribir uno? ¿Cómo se vería si lo hicieras? Dado que controlan tantas partes de nuestra vida diaria, es importante tener una idea básica de lo que está sucediendo exactamente, y realmente no es tan incomprensible como a menudo parece.

Definición informal: los algoritmos son solo recetas

Estatua de Al-Khwarizmi En el árabe es donde podemos encontrar el origen etimológico del término algoritmo. Su nombre se halla en el matemático Al-Khwarizmi, que nació en la Edad Media en una de las zonas de lo que hoy se conoce como Uzbiekistán, en Asia central.

En su definición más básica, un algoritmo es simplemente un conjunto de pasos bien definidos que puede seguir, generalmente tomando algunas entradas y produciendo un conjunto diferente de salidas.

Una receta de cocina para hacer la paella puede ser un algoritmo. También lo son las indicaciones para llegar a la casa de un amigo, tocar una partitura o el proceso de buscar una palabra en un diccionario.

La forma en que se implementan estos algoritmos varía ampliamente, pero no necesita estar familiarizado con ningún lenguaje de programación para comprender la lógica básica detrás de ellos.

Por ejemplo, el siguiente es un algoritmo para dar instrucciones simples para caminar como nos proporciona Google Maps cuando nos encuentra la ruta más idónea caminando:

  1. Después de salir de la estación de metro Linea 1 de Marina, Dirígete al sur por Avinguda Meridiana.
  2. En la rotonda, toma la primera salida en dirección Carrer dels Almogàvers.
  3. Gira a la derecha hacia Carrer de Joan d'Àustria hasta llegar al número 65 Local.
  4. Llamar al timbre de la puerta y ser recibido.
  5. Entra por la puerta principal.
mapa

Es un algoritmo muy simple que utiliza muchas entradas que los humanos pueden procesar fácilmente; Ya sabemos sobre caminar, calles, materiales, entrar y todas esas otras cosas. Si estuviéramos creando un algoritmo direccional para un robot, tendría que ser mucho más largo y más específico, que es lo que hace que muchos algoritmos parezcan tan confusos para los humanos.

Más formalmente: los algoritmos son fórmulas claras e inequívocas

Un algoritmo que probablemente usados todos los días es el algoritmo de PageRank de Google, que analiza cientos de factores sobre una página web, los ejecuta a través de su fórmula y le asigna un puntaje. Los resultados de búsqueda que ve en respuesta a su término de búsqueda son un resultado directo de ese puntaje. Funciona muy bien porque sigue un conjunto de reglas claramente definidas que le dicen qué buscar, qué ignorar y qué hacer con la información que encuentra.

Para comprender mejor un ejemplo sencillo: confeccionaremos un programa que lea por teclado dos números enteros distintos y nos muestre el mayor:

  1. Se hace la entrada de las variables numero1 -> “5” y numero2 -> “10” por teclado.
  2. Para saber si la variable tiene un valor mayor preguntamos si el contenido de numero1 es mayor (>) que el contenido de numero2.
  3. Si la respuesta es verdadera imprimimos el numero1.
  4. En caso que la condición sea falsa imprimimos el numero2.

Como podemos observar nunca se imprime numero1 y numero2 a la vez.

Siguiendo estos pasos, la computadora verá el primer número, que es cinco. Como no es mayor a diez, continúa y verifica el siguiente número. Como ese número es diez, devuelve algo como "El número mayor es: 10".

Codificado en un lenguaje de programación como Python comprensible para un computador, nuestro algoritmo ejemplo se vería como el siguiente:

Todo lo que está haciendo el código es verificar si coincide con la condición de mayor. Si nada lo hace, simplemente devuelve "Falso" pero en este caso hemos comentado que deben introducirse dos números diferentes.

Este es un algoritmo extremadamente simple, pero ya sea una línea de código o un millón, cada algoritmo en existencia opera con el mismo principio básico: tomar información, procesarla de acuerdo con alguna lógica preestablecida y obtener resultados.

Algoritmos cotidianos

La mayoría de los algoritmos que realmente ejecutan nuestra vida cotidiana no son de código abierto. No sabemos exactamente cómo Google determina qué resultados de búsqueda mostrar o cómo Facebook combina sus noticias, pero aún podemos ver los resultados de esos cálculos. Sin embargo, son importantes, y tenemos una idea bastante buena de la lógica básica detrás de ellos.

  • Google PageRank funciona al observar el número y la calidad de los enlaces que conducen hacia y desde una página web, aunque hay una gran cantidad de criterios secretos que se actualizan constantemente para mejorar los resultados y evitar que alguien juegue con el sistema.
  • El feed de noticias de Facebook mide la fuerza de su relación con las personas y los grupos en función de su actividad, luego utiliza estos y otros factores para generar su feed de noticias.
  • Amazon y Netflix utilizan algoritmos de recomendación que analizan los datos del usuario, descifran cosas que cada usuario podría desear y le muestran al usuario esas cosas.
  • El sistema ORION de UPS es un algoritmo enorme (¡más de 1000 páginas!), Pero puede calcular la ruta más eficiente para cualquier entrega al mismo tiempo que tiene en cuenta todo tipo de datos en tiempo real y parámetros operativos, como las ventanas de entrega solicitadas.

  • Las aplicaciones de inteligencia artificial como los autos sin conductor, el reconocimiento facial, el procesamiento del lenguaje natural, el análisis predictivo y muchos más se basan en algoritmos que pueden incorporar datos visuales, de audio o digitales, descubrir qué está sucediendo y devolver los resultados apropiados.

Todo es un algoritmo

Una vez que sabes cómo se ve un algoritmo no solo está en nuestra tecnología, ya que, después de todo, están en nuestros cerebros. Todo lo que hacemos es el resultado de recibir entradas, procesarlas y producir salidas. La mayoría de estos procesos se almacenan dentro de una caja negra que se reorganiza constantemente, pero están allí, detrás de escena, lo que nos ayuda a caminar, comprender el lenguaje y tomar decisiones sobre las cosas. Los humanos están equipados para comprender algoritmos a nivel instintivo, por lo que incluso si los algoritmos informáticos están escritos en matemática y código indescifrables, todos pueden traducirse en términos que entendemos.

]]>
nougir@nougir.com (nougir) Blog Thu, 01 Aug 2019 11:03:05 +0000
¿Cómo los componentes que tiene tu ordenador pueden reciclarse? https://nougir.com/blog-3/item/25-como-los-componentes-que-tiene-tu-ordenador-pueden-reciclarse https://nougir.com/blog-3/item/25-como-los-componentes-que-tiene-tu-ordenador-pueden-reciclarse ¿Cómo los componentes que tiene tu ordenador  pueden reciclarse?

Nuestro mundo actual es digital; Las estadísticas respaldan esa afirmación. Los teléfonos inteligentes se venden a un precio de casi 150 millones por trimestre comercial; Las PCs en alrededor de 100 millones.Y las ventas de tablets también están a casi 120 millones por año.

Es una cantidad inmensa de tecnología digital que se extiende por todo el mundo. Sin embargo, casi nadie sabe cómo se hacen estas máquinas. El proceso es en algunos aspectos bastante simple y en otros, desconcertantemente complejo.

Una ordenador se compone de varias partes y componentes que facilitan la funcionalidad del usuario. Una ordenador tiene dos categorías principales:

  • Hardware : Estructura física que alberga el procesador, la memoria, el almacenamiento, los puertos de comunicación y los dispositivos periféricos de un ordenador.
  • Software : Incluye sistema operativo (OS) y aplicaciones de software.

Las piezas de hardware son de suma importancia. Si alguna vez has visto las entrañas de tu ordenador de escritorio (además del polvo que se acumula con el paso del tiempo), sabes que existen todo tipo de componentes. En resumen, su ordenador está compuesta de muchas partes individuales.

Componentes principales de un ordenador

Probablemente ya esté familiarizado con los componentes más vitales que conforman la estructura de un ordenador. Necesitas una CPU (unidad central de procesamiento), que es el llamado cerebro de la ordenador. Procesa las instrucciones que le da el software, como el procesador de textos o los programas de contabilidad.

Una ordenador también necesita un lugar para almacenar datos. Eso suele ser un disco duro magnético. Los discos duros actuales pueden almacenar muchos gigabytes o incluso terabytes de datos. Los discos duros más nuevos (y generalmente más caros que los duros) son unidades de estado sólido o SSD que no tienen partes móviles y, por lo tanto, no son tan susceptibles de fallos mecánicos como las versiones anteriores, siendo más rápidos y fiables que los discos duros.

Los dispositivos pequeños, como los teléfonos inteligentes, a menudo no requieren tanta capacidad de almacenamiento como los ordenadores de escritorio o portátiles, por lo que emplean chips de memoria flash como los que se usan en las cámaras digitales. Puede intercambiar tarjetas flash dentro y fuera de un dispositivo para compartir datos fácilmente.

Los discos duros son para almacenamiento de datos semipermanentes o a largo plazo. RAM (memoria de acceso aleatorio), sin embargo, es un almacenamiento a corto plazo con menor capacidad. La RAM es mucho más rápida de acceder que un disco duro, por lo que es importante para la velocidad general del sistema y la para procesos de multitarea.

Una placa base a menudo se compara con el sistema nervioso central humano. Conecta todas las partes y las ayuda a integrarlas. Sin esta placa de circuito crucial, tu Pc sería más costoso.

Cada uno de estos componentes requiere ingeniería y diseño cuidadosos, sin mencionar las máquinas de fabricación especializadas y la supervisión experta. Es por eso que los fabricantes de ordenadores no pueden construir todas las partes desde cero. En su lugar, generalmente compran tarjetas madre, directamente de un fabricante de placas madre, y luego combinan componentes para construir una máquina completa.

Desde el diseño hasta su fabricación

No se puede construir una ordenador hasta que decida sobre su propósito. Los fabricantes primero estudian la necesidad de un producto específico. Luego diseñan ese producto en ordenadores equipados con software de modelado. Con un plan de producto en mano, los ingenieros pueden determinar qué tipo de equipo de fabricación necesitarán.

No importa qué producto puedan concebir, es un hecho que su magia digital requerirá recursos sustanciales. Su ordenador se compone de una fantástica variedad de diferentes materiales, como acero, vidrio, arena de sílice, mineral de hierro, oro, bauxita y muchos otros. Todas esas materias primas tienen que venir de algún lugar, como las minas. Una vez que se reúnen las materias primas, se transportan a una fábrica, donde se hacen las piezas individuales de la ordenadora. Una fábrica podría especializarse en chips RAM; otro hace CPU de alta calidad. La intensidad de la creación de CPU es un ejemplo realmente bueno de la cantidad de trabajo y material que se incluye en un solo componente de la ordenador.

Las CPU están hechas principalmente de silicio cristalino, que puede obtenerse de arena común. Primero, sin embargo, ese silicio debe ser purificado. Este es uno de los pasos más críticos, ya que incluso una pequeña impureza puede hacer que los chips fallen. Una vez en forma purificada, el silicio se forma en obleas, que son simplemente material cristalino de láminas delgadas.

Luego, el fabricante de la CPU graba, o imprime, líneas en la superficie de la oblea. Este proceso es seguido por la colocación real de transistores y circuitos.

Luego, la oblea se limpia completamente con productos químicos para garantizar que no haya contaminantes. Y finalmente, la oblea se corta precisamente en los muchos chips individuales o CPU, que eventualmente proporcionarán la potencia para su ordenador.

Esa es una sinopsis extremadamente condensada de la creación de la CPU. Ahora imagine los mismos tipos de procesos que ocurren para todos los otros componentes dentro de su ordenador. No es de extrañar que los fabricantes de ordenadores subcontraten la construcción de componentes a empresas de terceros.

Integrar los Componentes

Una vez que las materias primas están integradas en los componentes terminados, el ordenador está lejos de estar completo. Alguien debe poner todos esos componentes juntos en un producto terminado que pueda enviarse directamente a los consumidores o a un punto de venta.

Por supuesto, usted ya sabe que los fabricantes construyen ordenadores en grandes factorías de la última tecnología. Las economías de escala significan que la construcción de muchas máquinas a la vez hace bajar el precio de un producto para que sea más fácil de fabricar y más barato de vender. Compañías están buscando constantemente formas de optimizar la construcción de productos para que puedan mantener márgenes de beneficio sólidos.

Cuando se pide un ordenador en línea, puede especificar varios componentes, como un disco duro más grande o más RAM. Después de completar su pedido, se registra en el sistema de pedidos de la planta de fabricación.

Luego, los empleados escogen de las piezas necesarias para construir su máquina y las colocan en una bolsa en una cinta transportadora. En el último paso de este proceso, los trabajadores seleccionan un chasis que coincide con el número y el tamaño de las piezas en su pedido.

Con todas las piezas necesarias reunidas, un técnico construye el ordenador a mano. Mientras lo hace, escanea el número de serie de cada parte individual (como las unidades ópticas y las unidades de disco duro), que asocia cada parte con la etiqueta de servicio en su máquina. Al hacerlo, la compañía sabe exactamente qué partes están en su ordenador y, por lo tanto, puede ofrecer un mejor soporte técnico cuando sea necesario.

El ordenador completo luego viaja al área de instalación del software. La mayoría de las empresas cargan un sistema operativo, junto con otro software básico en el disco duro, por conveniencia. Una vez que se completa el proceso de instalación, la máquina se somete a pruebas automatizadas para garantizar que todas sus partes estén presentes y funcionen correctamente. Luego el producto es empaquetado y enviado a su destino.

Y gran parte de este proceso está automatizado, para hacerlo aún más rápido y eficiente. Dicho esto, todavía hay mucho trabajo manual requerido para ensamblar partes individuales y ordenadoras de trabajo finales.

Eso es mucho trabajo para un dispositivo que tiene una vida útil esperada de quizás 18 meses a dos años.

Se consumen cada vez más recursos naturales

La fabricación de ordenadores requiere una ingente cantidad de recursos. De hecho, un estudio de las Naciones Unidas encontró que se necesitan alrededor de 1,8 toneladas de materias primas para hacer un PC de escritorio, es decir, cada equipo requiere aproximadamente 10 veces su peso en materiales y productos químicos antes de que esté listo para ir a trabajar. Eso significa que las ordenadores son más exigentes en términos de materiales que, por ejemplo, un aparato mucho más grande, como un horno o refrigerador, o incluso un automóvil, que requieren aproximadamente una o dos veces su propio peso en materiales.

Un solo chip de ordenador, por ejemplo, requiere una cantidad significativa de materiales para un producto exitoso. Los combustibles fósiles que alimentan la energía necesaria para todos los procesos de producción son vitales. Y para cada chip, son necesarias alrededor de 1,6 kilos de combustibles fósiles.

Antes de que pueda salir de la línea de producción, cada chip debe limpiarse cuidadosamente con agua. Este procedimiento de lavado para un chip puede consumir aproximadamente 34 litros de agua. No es de extrañar, entonces, que se necesiten más de 1500 litros de agua para hacer el ordenador completo.

Tu ordenador o móvil también requiere cantidades significativas de aluminio. El aluminio es ideal para dispositivos, como ordenadoras portátiles y teléfonos inteligentes, que requieren estuches o armazones resistentes pero livianos. Para obtener aluminio, tenemos que extraer bauxita, que luego se convierte en óxido de aluminio a través de un proceso que consume mucha energía.

Los fabricantes podrían reducir la necesidad de energía para hacer una ordenadora portátil, por ejemplo, alrededor del 90 por ciento si solo usaran aluminio reciclado. Sin embargo, en los Estados Unidos, solo alrededor del 30 por ciento del aluminio se recicla, lo que significa que hay mucho menos material para varias compañías que desean usarlo.

La lista de recursos necesarios para la construcción de productos electrónicos sigue y sigue. Esa es la razón principal por lo que se debe animar a los consumidores a actualizar las ordenadores no actualizados en lugar de desecharlos.

Definitivamente vale la pena señalar que también hay un costo humano para los niveles de producción masiva. Al igual que con todos los productos de alta demanda, las compañías compiten por las ventajas de precio al encontrar mano de obra barata siempre que sea posible, incluso si eso significa usar trabajadores extranjeros. A veces, esos empleados, la mayoría en factorías del tercer mundo, trabajan horas intensas con salarios escasos y en malas condiciones.

¿POR QUÉ RECICLAR?

  • Los monitores de estilo más antiguo contienen monitores de tubos de rayos catódicos (CRT) que contienen plomo, y las computadoras y móviles también contienen otros materiales peligrosos que deben eliminarse de manera responsable.
  • Cuando se desechan en vertederos, los materiales y componentes químicos utilizados para fabricar equipos informáticos como el plomo, el mercurio, el cadmio y el arsénico pueden filtrarse en el suelo y las aguas subterráneas, causando daños a nuestro medio ambiente y a las poblaciones humanas.

¿QUÉ SUCEDE CUANDO LOS COMPONENTES SON RECICLADOS?

Las computadoras y accesorios que están en buen estado de funcionamiento a menudo se pueden renovar con un nuevo software y algunas piezas de repuesto. Estas computadoras reenvasadas generalmente están disponibles para comunidades de bajos ingresos, individuos y organizaciones comunitarias. Los residuos electrónicos que se recolectan para su reciclaje generalmente se someten a un proceso de desmantelamiento manual. Los materiales individuales, como las placas de circuito impreso, el cableado, el vidrio y los plásticos, se recuperan y luego se procesan para que puedan utilizarse como materias primas para producir nuevos productos.

Mientras crezca nuestra necesidad de ordenadores, tabletas y teléfonos inteligentes, también lo harán los recursos y la mano de obra precaria necesarios para crearlos. Deberemos ser conscientes de la necesidad de reciclar los ordenadores, las administraciones crear plan nacional de reciclaje y los fabricantes en recuperar sus componentes en procedimientos limpios que no afecten de manera tan significativa al medio ambiente.

]]>
Blog Mon, 01 Jul 2019 13:16:52 +0000
Una repaso a la historia de los lenguajes de programación https://nougir.com/blog-3/item/24-una-repaso-a-la-historia-de-lenguajes-de-programacion https://nougir.com/blog-3/item/24-una-repaso-a-la-historia-de-lenguajes-de-programacion Una repaso a la historia de los lenguajes de programación

Desde la invención de la calculadora mecánica de Charles Babbage en 1822, las computadoras han requerido un medio de comunicación para enseñarles para que realicen una tarea específica. Esto significa que se conoce como un lenguaje de programación.

Los lenguajes de computadora fueron en principio creados de una serie de pasos para conectar un programa en particular; estos se transformaron en una serie de pasos tecleados en la computadora y luego ejecutados; posteriormente, estos lenguajes adquirieron características avanzadas, como la ramificación lógica y la orientación a objetos. Los lenguajes informáticos de los últimos cincuenta años han llegado en dos etapas:

Al principio, el motor de diferencia de Charles Babbage solo podía hacerse para ejecutar tareas cambiando los engranajes que ejecutaban los cálculos. Así, la forma más antigua de un lenguaje informático era el movimiento físico. Finalmente, el movimiento físico fue reemplazado por señales eléctricas cuando el gobierno de los EE. UU. Construyó el ENIAC en 1942. Siguió muchos de los mismos principios del motor de Babbage y, por lo tanto, solo pudo “programarse” programando los interruptores y recableando todo el sistema para cada nuevo " Programa” o cálculo. Este proceso resultó ser muy tedioso.

En 1945, John Von Neumann trabajaba en el Instituto de Estudios Avanzados. Desarrolló dos conceptos importantes que afectaron directamente el camino de los lenguajes de programación informática. La primera fue conocida como "técnica de programa compartido", esta técnica indica que el hardware real de la computadora debe ser simple y no necesita estar conectado manualmente para cada programa. En su lugar, se deben usar instrucciones complejas para controlar el hardware simple, permitiendo que se reprograme mucho más rápido.

El segundo concepto también fue extremadamente importante para el desarrollo de lenguajes de programación. Von Neumann lo llamó "transferencia de control condicional". Esta idea dio origen a la noción de subrutinas, o pequeños bloques de código a los que se podría saltar en cualquier orden, en lugar de un solo conjunto de pasos ordenados cronológicamente para que la computadora los interprete. El código de computadora debería poder bifurcarse en base a declaraciones lógicas como IF (expresión) THEN, y en bucle como con una instrucción FOR. La "transferencia de control condicional" dio lugar a la idea de "bibliotecas", que son bloques de código que se pueden reutilizar una y otra vez. ( En esta época, Konrad Zuse, un alemán, estaba inventando sus propios sistemas informáticos de forma independiente y desarrolló muchos de los mismos conceptos, tanto en sus máquinas como en el lenguaje de programación Plankalkul. Lamentablemente, su trabajo no se extendió ampliamente conocido hasta mucho más tarde. Para obtener más información las entradas en Wikipedia: Konrad Zuse ).

En 1949, unos años después del trabajo de Von Neumann, apareció el lenguaje Short Code. Fue el primer lenguaje de computadora para dispositivos electrónicos y requirió que el programador cambiara sus declaraciones a 0 y 1 a mano. Aun así, fue el primer paso hacia los complejos lenguajes de hoy. En 1951, Grace Hopper escribió el primer compilador. Un compilador es un programa que convierte las declaraciones del idioma en 0 y 1 para que la computadora las entienda. Esto llevó a una programación más rápida, ya que el programador ya no tenía que hacer el trabajo a mano.

En 1957, el primero de los principales idiomas apareció en la forma de FORTRAN. Su nombre significa FORmula TRANslating system. El lenguaje fue diseñado en IBM para computación científica. Los componentes eran muy simples y proporcionaban al programador acceso de bajo nivel a las computadoras internas. Hoy en día, este lenguaje se consideraría restrictivo ya que solo incluía las declaraciones IF, DO y GOTO, pero en ese momento, estos comandos fueron un gran paso adelante. Los tipos básicos de datos en uso hoy en día comenzaron en FORTRAN, que incluían variables lógicas (VERDADERO o FALSO) y números enteros, reales y de doble precisión.

El lenguaje Algol fue creado por un comité para uso científico en 1958. Su principal contribución es ser la raíz del árbol que ha llevado a lenguajes tales como Pascal, C, C ++ y Java. También fue el primer idioma con una gramática formal, conocida como Backus-Naar Form o BNF ( McGraw-Hill Encyclopedia of Science and Technology , 454). Aunque Algol implementó algunos conceptos novedosos, como la llamada recursiva de funciones, la próxima versión del lenguaje, Algol 68, se volvió enrevesado y difícil de usar. Esto condujo a la adopción de lenguajes más pequeños y más compactos, como Pascal.

Pascal se inició en 1968 por Niklaus Wirth. Su desarrollo se debió principalmente a una buena herramienta de enseñanza. Al principio, los diseñadores de idiomas no tenían esperanzas de que disfrutara de una adopción generalizada. En su lugar, se concentraron en el desarrollo de buenas herramientas para la enseñanza, como un depurador y un sistema de edición, y soporte para máquinas comunes de microprocesadores iniciales que estaban en uso en instituciones de enseñanza.

Pascal fue diseñado en un enfoque muy ordenado, combinó muchas de las mejores características de los idiomas en uso en ese momento, COBOL, FORTRAN y ALGOL. Al hacerlo, muchas de las irregularidades y declaraciones extrañas de estos idiomas fueron eliminadas, lo que ayudó a que ganara usuarios. La combinación de características, entrada / salida y características matemáticas sólidas, lo convirtió en un lenguaje altamente exitoso. Pascal también mejoró el tipo de datos "puntero", una característica muy poderosa de cualquier idioma que lo implemente. También agregó una declaración CASE, que permitía que las instrucciones se ramificaran como un árbol.

Pascal también ayudó al desarrollo de variables dinámicas, que se podían crear mientras se ejecutaba un programa, a través de los comandos NUEVO y DISPONER. Sin embargo, Pascal no implementó matrices dinámicas, o grupos de variables, que resultaron ser necesarias y llevaron a su caída. Más tarde, Wirth creó un sucesor de Pascal, Modula-2, pero cuando apareció, C estaba ganando popularidad y usuarios a un ritmo rápido.

C fue desarrollado en 1972 por Dennis Ritchie mientras trabajaba en Bell Labs en Nueva Jersey. La transición en el uso de los primeros idiomas principales a los de hoy ocurrió con la transición entre Pascal y C. Sus ancestros directos son B y BCPL, pero sus similitudes con Pascal son bastante obvias. Todas las características de Pascal, incluidas las nuevas, como la instrucción CASE, están disponibles en C. C usa los punteros en forma extensa y fue diseñada para ser rápida y poderosa a costa de ser difícil de leer. Pero debido a que corrigió la mayoría de los errores que tuvo Pascal, se ganó rápidamente a los antiguos usuarios de Pascal.

Ritchie desarrolló C para el nuevo sistema Unix que se está creando al mismo tiempo. Debido a esto, C y Unix van de la mano. Unix le brinda a C características tan avanzadas como variables dinámicas, multitarea, manejo de interrupciones, bifurcación, bajo nivel, entrada-salida. Debido a esto, C es muy comúnmente utilizado para programar sistemas operativos como Unix, Windows, MacOS y Linux.

A finales de los años 70 y principios de los 80, se estaba desarrollando un nuevo método de programación. Era conocido como Programación Orientada a Objetos, o POO. Los objetos son piezas de datos que pueden ser empaquetados y manipulados por el programador. A Bjarne Stroustroup le gustó este método y desarrolló extensiones a C conocidas como "C con clases". Este conjunto de extensiones se desarrolló en el lenguaje completo C ++, que se lanzó en 1983.

C ++ fue diseñado para organizar la potencia bruta de C usando OOP, pero mantiene la velocidad de C y puede ejecutarse en muchos tipos diferentes de computadoras. C ++ se usa con más frecuencia en simulaciones, como juegos. C ++ es el idioma de elección en los cursos técnicos de ciencias de la computación de hoy.

A principios de la década de 1990, la televisión interactiva era la tecnología del futuro. Sun Microsystems decidió que la televisión interactiva necesitaba un lenguaje especial, portátil (puede ejecutarse en muchos tipos de máquinas). Este lenguaje eventualmente se convirtió en Java. En 1994, el equipo de proyecto de Java cambió su enfoque a la web, que se estaba convirtiendo en "lo mejor" después de que la televisión interactiva no prosperara. En el siguiente año, Netscape obtuvo la licencia de Java para usar en su navegador de Internet, Navigator. En este punto, Java se convirtió en el lenguaje del futuro y varias compañías anunciaron aplicaciones que se escribirían en Java, ninguna de las cuales entró en uso.

Aunque Java tiene objetivos muy elevados y es un ejemplo de libro de texto de un buen lenguaje, puede ser el "lenguaje que no lo fue". Tiene serios problemas de optimización, lo que significa que los programas escritos en él se ejecutan muy lentamente. Y Sun ha dañado la aceptación de Java al participar en batallas políticas con Microsoft. Pero Java puede convertirse en el lenguaje de instrucción del mañana, ya que está verdaderamente orientado a objetos e implementa técnicas avanzadas como la verdadera portabilidad de código y la recolección de basura o garbage collector.

Visual Basic se enseñó a menudo como primer lenguaje de programación ya que se basaba en el lenguaje BASIC desarrollado en 1964 por John Kemeny y Thomas Kurtz. BASIC es un lenguaje muy limitado y fue diseñado para personas no informáticas. Las declaraciones se ejecutan principalmente de manera secuencial, pero el control del programa puede cambiar en función de las instrucciones IF..THEN y GOSUB que ejecutan un cierto bloque de código y luego regresan al punto original en el flujo del programa.

Microsoft ha ampliado BASIC en su producto Visual Basic (VB). El corazón de VB es el formulario o la ventana en blanco en la que arrastra y suelta componentes como menús, imágenes y barras deslizantes. Estos elementos se conocen como "widgets". Los widgets tienen propiedades (como su color) y eventos (como clics y clics dobles) y son fundamentales para construir cualquier interfaz de usuario hoy en cualquier idioma. VB se usa con más frecuencia hoy en día para crear interfaces rápidas y simples para otros productos de Microsoft, como Excel y Access, sin necesidad de mucho código, aunque es posible crear aplicaciones completas con él.

Perl se ha descrito a menudo como la "cinta adhesiva de Internet", porque se usa con más frecuencia como motor de una interfaz web o en scripts que modifican los archivos de configuración. Tiene funciones de comparación de texto muy fuertes que lo hacen ideal para estas tareas. Perl fue desarrollado por Larry Wall en 1987 porque las herramientas Unix sed y awk (usadas para la manipulación de textos) ya no eran lo suficientemente fuertes como para satisfacer sus necesidades. Dependiendo de a quién se lo pregunte, Perl significa Práctica de Extracción y Lenguaje de Presentación de Informes o Lógica Ecléctica.

Más tarde Guido Van Rossum desarrolló Python en 1991. Python es más fácil de leer y requiere menos líneas de código que muchos otros lenguajes de programación de computadoras. Su nombre proviene del grupo de comedia británico Monty Python. Los sitios populares como Instagram utilizan marcos escritos en Python.

Brendan Eich creó JavaScript en solo 10 días en 1995. Javascript es un lenguaje que se utiliza principalmente para mejorar las interacciones del navegador web. Sería difícil encontrar un sitio web que no use Javascript.

Ahora vamos a saltar hasta el 2009 y vamos. Go es un lenguaje desarrollado por Google para abordar problemas que ocurren en grandes sistemas de software. Las computadoras son muy diferentes hoy en día de lo que eran cuando se introdujeron y pusieron en uso lenguajes como C ++, Java y Python, por lo que surgieron problemas cuando los grandes sistemas informáticos se volvieron comunes. Go tenía la intención de mejorar el entorno de trabajo de los programadores para que pudieran escribir, leer y mantener sistemas de software grandes de manera más eficiente.

El futuro de la programación

Entonces, dado que los tres lenguajes de programación más populares en 2019 han existido desde al menos 1995 (Java, Python y C++), ¿cuál es el futuro de los lenguajes de programación? ¿Cuál es el próximo gran avance que podemos esperar?

Primero, los ingenieros biológicos del MIT han creado un lenguaje de programación que les permite diseñar circuitos complejos codificados con ADN que dan nuevas funciones a las células vivas. El lenguaje de programación dará nuevas funciones a las células vivas.

Con este lenguaje, puede escribir un programa para cualquier función que desee, como detectar y responder a condiciones ambientales específicas. Entonces se generará una secuencia de ADN que puede lograrlo. Esto es algo real de ciencia ficción que cobra vida.

Utiliza un lenguaje basado en texto, como si estuviera programando una computadora. Luego toma ese texto, lo compila, y lo convierte en una secuencia de ADN que se pone en la celda, y el circuito se ejecuta dentro de la celda.

En el futuro, esta programación podría diseñar células bacterianas que producirán un medicamento contra el cáncer cuando hayan detectado un tumor, o podría crear células de levadura que puedan detener su propio proceso de fermentación si se acumulan demasiados subproductos tóxicos.

Vivimos en tiempos emocionantes

Las generaciones venideras experimentaran un auge de la tecnología y los lenguajes de programación sin precedentes. El primer lenguaje de programación se desarrolló en 1883, y entre ese momento y ahora, miles más se han desarrollado. Han cambiado nuestra vida cotidiana. Han cambiado la forma en que trabajamos, aprendemos, nos comunicamos y nos entretenemos.

]]>
nougir@nougir.com (nougir) Blog Mon, 03 Jun 2019 16:04:37 +0000