Actualizado el lunes, 4 diciembre, 2023
Una reunión a primera hora de la mañana, un buen desayuno para acompañar y todos listos para trabajar. Eso sí, todo ello a partir de las 9:06 h exactamente, ni un minuto más ni un minuto menos.
Esta es la revolucionaria propuesta de Pivotal Software, una multinacional informática con sede en veinte países diferentes. A la 9:06 exactamente suena una campana y toda la plantilla se reúne para ponerse a trabajar. Bueno, eso no es del todo verdad, todos los trabajadores se congregan, de pie, y reciben instrucciones sobre la jornada; todo ello justo después de desayunar (gratis). Este ritual se lleva a cabo antes de sentarse delante del ordenador durante el resto de la jornada.
De esta manera, una vez se ponen a trabajar ya no hay distracciones, ni reuniones, ni molestias en toda la jornada. Es verdad que el sistema de Pivotal Software parece completamente aleatorio, pero toda decisión empresarial suele tener un motivo bien estudiado detrás.
Ideas innovadoras muy sencillas
Rob Mee, fundador y director ejecutivo de Pivotal, es el cerebro tras este horario tan peculiar en el que los programadores entran a las 9:06 de la mañana y salen a las 18:00 exactamente —nadie está autorizado a quedarse en la oficina después de esa hora—.
«Me di cuenta de que los programadores, si les dejas frente a sus equipos, pueden no ser productivos hasta las 10 de la mañana.»
«Y si no han comido adecuadamente, a las 11 tendrán hambre y pararán para comer, con lo que la tarde se les hará larguísima. No es muy eficiente», apunta Mee.
Y en su búsqueda para optimizar la jornada laboral de la manera más eficiente se dio cuenta de que el desayuno era la clave, ya que, en sus propias palabras, “eso le da a la gente un incentivo para llegar aquí por la mañana». Por ello, la empresa proporciona el desayuno a toda la plantilla de servicios de desarrollo de sistemas antes de empezar su jornada a las 9:06 h.
¿Por qué una jornada laboral que empieza seis minutos después de las nueve exactamente?
Mee confiesa que «pensamos que si decíamos a las 9 los desarrolladores lo tomarían como una guía de referencia y pensarían ‘bueno, si es las 9 voy a llegar un poco tarde’. Entonces evaluamos establecer las 9:05 como horario, pero eso era demasiado preciso y a los desarrolladores no les gusta ‘sobre-optimizar’, así que nos inclinamos por las 9:06”.
Así que lo que empezó como una hora casi arbitraria se acabó convirtiendo en “un dato gracioso de nuestra identidad corporativa».
Ahí empezó el camino hacia la eficiencia, que se complementa con una regla de oro: nadie se puede quedar en el trabajo cuando anochezca. A las 18:00 h todos a casa (o al bar, o a la calle, o al cine… cada uno elige), porque un trabajador cansado es un trabajador ineficaz y poco productivo.
Y a ti, ¿qué te parece este horario tan peculiar?
La informática moderna fue el resultado de muchas inspiraciones
Pasaron casi 100 años siguiendo la visión de Babbage de una computadora antes de que los avances tecnológicos hicieran posible construir una.
En 1937, cuatro elementos clave ayudaron a definir cómo surgiría una computadora moderna. Los componentes electrónicos constituirían el núcleo de una computadora, mientras que los avances en circuitos e interruptores significaron que la computadora moderna sería digital y no analógica. Además, las computadoras se ejecutarían en lenguaje binario (0 y 1) y serían máquinas de uso general, capaces de administrar una serie de tareas.
En noviembre de 1945, los inventores J. Presper Eckert y John Mauchly dieron a conocer su ENIAC (Electronic Numerical Integrator and Computer), la primera computadora en incorporar todos estos elementos.
A diferencia de sus precursores, el ENIAC era completamente electrónico, además de rápido y potente, y realizaba hasta 5.000 cálculos de suma y resta en un segundo. La funcionalidad y composición de ENIAC demostraron ser la base de toda la informática moderna.
Sin embargo, las disputas legales plagaron los intentos de los inventores de patentar su avance, demostrando al final cuán verdaderamente colaborativa fue realmente la invención de la computadora moderna.
Eckert y Mauchly obtuvieron por primera vez una patente para ENIAC en 1964. Sin embargo, la empresa de tecnología Honeywell impugnó la patente, argumentando que los conceptos detrás de ENIAC no eran originales del equipo inventor.
Durante los procedimientos judiciales, se descubrió que Mauchly había visitado en 1941 al físico John Vincent Atanasoff y había examinado una computadora que Atanasoff había construido. El juez determinó que el trabajo de Eckert y Mauchly se derivaba del de Atanasoff y dictaminó que la patente ENIAC no era válida.
Sin embargo, Mauchly y Eckert merecen gran parte del crédito por inventar la computadora moderna, principalmente debido a su capacidad para extraer e integrar ideas de múltiples fuentes.
This history illustrates how such complex ideas and inventions rarely come from the mind of just one individual. Instead, paradigm-shifting inventions are the product of a collaborative brainstorm.
Las matemáticas «poéticas» de Ada Lovelace, la hija de Lord Byron
Todo comenzó con Ada Lovelace (1815-1852), hija del poeta inglés Lord Byron. Aunque Byron no participó en su educación, Lovelace heredó su temperamento artístico ardiente.
A instancias de su madre, Lovelace comenzó a estudiar matemáticas rigurosamente para disciplinar su mente rebelde. A lo largo de sus estudios, desarrolló una pasión por la tecnología y las máquinas, lo que, combinado con su imaginación salvaje, resultó en un enfoque singularmente “poético” de las matemáticas.
A la temprana edad de 17 años, asistía a los salones semanales del mago de ciencias y matemáticas Charles Babbage. Estos salones fueron una maravilla, con conferencias, muñecos mecánicos, telescopios enfocados en las estrellas y fascinantes demostraciones de artefactos eléctricos y magnéticos.
Sin embargo, la pieza central de estos eventos fue el motor diferencial de Babbage , un gran artilugio que podía realizar cálculos mecánicos.
Ver el trabajo de Babbage la inspiró, y en sus ahora famosas Notas , expuso sus ideas que combinaban creativamente su vasto conocimiento matemático con su disposición creativa.
En 1834, Babbage llevó sus ideas un paso más allá con su motor analítico , una máquina que no solo podía realizar una sola operación, sino que también podía cambiar de operación, e incluso decirse a sí misma que lo hiciera.
Entre 1842 y 1843, Lovelace tradujo del francés una transcripción de la presentación de Babbage sobre su motor, a la que añadió sus propias notas copiosas e innovadoras.
Estas notas, más del doble de largas que el artículo original de Babbage y, al final, mucho más influyentes, describían las “computadoras” como dispositivos que podían procesar música, patrones y poesía.
Las ideas de Lovelace eran esencialmente una visión profética de la funcionalidad de la computadora, mucho más allá de los simples cálculos realizados por el motor analítico de Babbage.
Lovelace también fue pionero en la programación de computadoras al explicar cómo se podía programar el motor de diferencia con tarjetas perforadas, aumentando así en gran medida su versatilidad y transformándolo de un dispositivo especializado en una máquina de uso general.
El software o programación fue una invención clave en la creación de máquinas de usos múltiples
Probablemente conozca al menos a una persona que trabaja como programador de computadoras. Pero, ¿sabe realmente qué es lo que hace un programador?
En esencia, la programación es el acto de almacenar una secuencia de instrucciones dentro de la memoria electrónica de una máquina.
Una verdadera computadora, como la imaginada por Ada Lovelace, debería poder realizar cualquier operación lógica. Para hacerlo, necesitaríamos una máquina que no esté limitada por su hardware o sus componentes físicos, sino controlada por su software, las instrucciones que le dicen cómo administrar un cálculo.
El matemático y filósofo británico Alan Turing expuso el concepto de programación en 1948, escribiendo que, en lugar de tener muchas máquinas especializadas haciendo diferentes trabajos, sería mejor tener una sola máquina «programada» para realizar todas las operaciones necesarias.
Curiosamente, durante la Segunda Guerra Mundial las mujeres desempeñaron un papel fundamental en el desarrollo de la programación, liderada por la pionera de la programación y oficial naval Grace Hopper.
Como Hopper había sido profesora de matemáticas, se le asignó la tarea de escribir lo que se convertiría en el primer manual de programación de computadoras del mundo cuando comenzó a trabajar en la computadora digital de la Marina de los EE. UU., La Mark I.
Hopper abordó la programación de manera metódica y colaborativa. Ella le daría a la computadora instrucciones precisas, mientras también involucraba a su equipo en el perfeccionamiento de fragmentos de código de programación para tareas específicas.
En 1945, Hopper había transformado el Mark I en la computadora grande más fácilmente programable.
Hopper no fue la única mujer que tuvo un gran impacto en la computación moderna. De hecho, las mujeres estuvieron típicamente a la vanguardia de la revolución de la programación.
Como la programación inicial era una tarea muy repetitiva, que consistía en cambiar cables y restablecer interruptores, a menudo este tipo de tareas domésticas se relegaban a las mujeres. Sin embargo, pronto se hizo evidente que la programación de una computadora era tan importante como su hardware.
Se necesitaron un trío de mentes creativas para crear el primer transistor
La invención de las computadoras no provocó inmediatamente la Revolución Digital. Las primeras computadoras eran enormes y costosas, por lo que su uso generalizado estaba, al menos en ese momento, fuera de discusión.
De hecho, el nacimiento de nuestra era digital no ocurrió hasta la llegada de los transistores, pequeños semiconductores que permiten que programas muy complejos se ejecuten en dispositivos pequeños.
La importancia del transistor para la Revolución Digital es tan importante como lo fue la máquina de vapor para la Revolución Industrial. Los transistores hicieron que las computadoras fueran omnipresentes, lo que nos permitió poner una gran potencia de procesamiento dentro de computadoras, calculadoras y reproductores de música más pequeños.
Estos revolucionarios dispositivos fueron posibles gracias a una combinación de diversos talentos que se cruzaron en Bell Labs, con sede en Nueva Jersey.
Como empresa, Bell Labs tenía una cultura única centrada en compartir ideas. Este entorno colaborativo permitió grandes innovaciones, ya que se reunieron mentes talentosas de diversos campos para intercambiar ideas e inspiraciones.
En 1939, el físico William Shockley de Bell Labs concibió la idea de usar semiconductores en lugar de engorrosos tubos de vacío, que hasta ese momento habían sido la forma estándar de alimentar computadoras.
Shockley luego reunió a un equipo de investigación, que incluía grandes mentes como los colegas de Bell Labs, John Bardeen y Walter Brattain, para ayudarlo a realizar su visión.
Finalmente, el 16 de diciembre de 1947, después de dos años de experimentación y teorización colaborativas, Bardeen y Brattain lograron meter todos los componentes de un semiconductor en un espacio más pequeño, creando así el primer transistor.
Por sus esfuerzos, el trío recibió el Premio Nobel en 1956.
A dos ingenieros diferentes se les ocurrió la idea del microchip casi simultáneamente
Con el décimo aniversario del transistor llegó un problema nuevo y creciente: la tiranía de los números s.
Uno de los grandes avances realizados por el transistor fue que permitió circuitos más avanzados. Sin embargo, a medida que aumentaba la cantidad de componentes en un circuito, la cantidad de conexiones entre ellos aumentaba aún más, y dado que los circuitos a menudo se creaban a mano, crear todas estas conexiones era casi imposible.
La invención del microchip resolvió este problema. Sin embargo, curiosamente, dos científicos idearon el concepto de forma independiente casi al mismo tiempo.
En el verano de 1958, Jack Kilby en Texas Instruments comenzó a trabajar en un proyecto para construir circuitos eléctricos más pequeños cuando tuvo la idea de fabricar todos los componentes de un circuito con la misma pieza de silicio, en lugar de ensamblar diferentes partes.
De esta idea nació el microchip, un logro por el que Kilby recibió el Premio Nobel.
Solo unos meses después de la innovadora invención de Kilby, Robert Noyce, cofundador de Fairchild Semiconductor e Intel, descubrió que podía usar líneas de cobre impresas para conectar dos o más transistores en la misma pieza de silicio. Su diseño más elegante se convirtió en el modelo de todos los futuros microchips.
Ambos descubrimientos significaron que el proceso de construcción y conexión de circuitos podría automatizarse, eliminando así el obstáculo con los circuitos creados manualmente y poniendo fin a la tiranía de los números.
El ingeniero Ted Hoff amplió aún más las posibilidades computacionales cuando se dio cuenta de una mejor solución para diseñar microchips con diferentes funciones. En 1971, creó un chip de uso general llamado microprocesador , que podía programarse para realizar una variedad de aplicaciones.
Hoy en día, los microprocesadores se encuentran en todo tipo de dispositivos inteligentes, desde cafeteras hasta computadoras personales.
Los hippies y los piratas informáticos en las décadas de 1960 y 1970
Los primeros visionarios imaginaron una “computadora personal” ya en 1945. Pero pasarían otras tres décadas antes de que las computadoras se convirtieran en un producto masivo en lugar de una herramienta para los investigadores.
La revolución de las computadoras personales comenzó en serio a mediados de la década de 1970, cuando los genios de la tecnología y los emprendedores de la contracultura se unieron y tomaron en serio el retoque de sus computadoras.
Sin embargo, la semilla de la experimentación se plantó en la década de 1960, donde en el área de la Bahía de San Francisco, una potente mezcla de hippies y piratas informáticos exploraron el floreciente mundo de la tecnología. Para estos primeros piratas informáticos, “el imperativo práctico” reinaba en el día: para comprender una cosa, es necesario desarmarla con sus propias manos y luego usar ese conocimiento para crear cosas nuevas y mejores.
Steve Jobs combinó estos dos mundos: era un entusiasta visionario de la contracultura y un hacker experto, y junto con Steve Wozniak, pasó de construir dispositivos de broma que podían piratear llamadas gratuitas de larga distancia a fundar Apple Computer.
Jobs y Wozniak asistieron a las reuniones del Homebrew Computer Club, un grupo de aficionados donde los «nerds tecnológicos» podían reunirse e intercambiar ideas y donde las filosofías de la contracultura y el entusiasmo tecnológico eran una combinación perfecta.
Fue en el Homebrew Computer Club donde la pareja vio por primera vez la primera computadora personal: la Altair 8800.
Inventado por Ed Roberts, el Altair 8800 fue el primer ordenador personal que realmente funcionaba para los consumidores domésticos. Roberts no era ni un informático ni un pirata informático, sino un apasionado aficionado.
Utilizando el nuevo microprocesador Intel 8080, creó una computadora que a pesar de su gran tamaño, falta de memoria, teclado o cualquier otro dispositivo de entrada, cualquier otro aficionado podría fabricar y poseer.
Cuando el Altair 8800 apareció en la portada de la edición de enero de 1975 de Popular Electronics , la gente se volvió loca. La empresa de electrónica MITS, que produjo el Altair 8800, se vio abrumada por los pedidos del equipo de computadora, que costaba 397 dólares.
Ha visto cómo la colaboración allanó el camino para la informática moderna. Descubrirá cómo la colaboración cambió la forma en que usamos las computadoras.
De herramienta a juguete: la cultura colaborativa de los videojuegos
A medida que los dispositivos se vuelven más pequeños y más potentes, la percepción de lo que las computadoras pueden y deben hacer también cambió. No solo podíamos usar las computadoras para trabajar, sino también para jugar.
Fue este cambio en la utilidad lo que ayudó a allanar el camino para otra revolución más: los videojuegos.
Los primeros videojuegos en realidad son anteriores a la primera computadora personal y, de hecho, ayudaron a crear algunas de sus características principales. Pensar en términos de juegos ayudó a los desarrolladores a cultivar la idea de que las computadoras deben tener una interfaz intuitiva y pantallas gráficas atractivas; en resumen, sea personal e interactivo.
Por ejemplo, en 1962 la creación del videojuego Spacewar dio a las personas la oportunidad de manejar una computadora y hacerla responder a comandos en tiempo real. El juego simple era gratuito y se basaba en software de código abierto, y hoy en día es un testimonio del poder del esfuerzo colaborativo.
Encabezada por el científico informático Steve Russell, la creación de Spacewar fue en realidad el producto de una organización de estudiantes geek en el Instituto de Tecnología de Massachusetts (MIT) llamada Tech Model Railroad Club. Este grupo sería pionero en la cultura de los piratas informáticos «prácticos» que más tarde se volvería tan importante para la innovación en nuestra era digital.
Aunque los videojuegos influyeron en el diseño de las computadoras personales, fue el innovador Nolan Bushnell quien convirtió los videojuegos en una industria real.
Un gran fan de Spacewar , Bushnell inventó una consola para el juego que llamó Computer Space. La consola vendió 1.500 unidades e inmediatamente adquirió seguidores de culto. Bushnell fundó la empresa de videojuegos Atari, donde creó el sencillo, exitoso e icónico juego Pong .
Atari era conocido por sus fiestas para fumar marihuana y sus fiestas de cerveza, y representaba el espíritu de la época que definía a Silicon Valley: admirar el inconformismo, cuestionar la autoridad y fomentar la creatividad.
La competencia constante entre los productores de software
En 1974, Paul Allen y Bill Gates miraron la portada de una revista que presentaba la primera computadora personal del mundo y se asustaron. La idea de quedarse atrás en la revolución de las computadoras fue un pensamiento terrible para dos fanáticos de las computadoras.
Allen y Gates pasaron las siguientes ocho semanas en un frenesí de escritura de códigos. Su trabajo eventualmente se convertiría en parte del software básico para computadoras personales.
A Gates y Allen siempre les había fascinado el código de software, pero mucho menos el hardware. Ellos imaginaron un mercado donde el hardware era simplemente un conjunto de piezas intercambiables y el software de aplicación y los sistemas operativos serían el verdadero punto de venta de una computadora.
Con esta visión, se propusieron escribir software que permitiera a los aficionados crear sus propios programas en las computadoras Altair y, al hacerlo, lanzaron una industria de software para computadoras personales.
En la década de 1990, había muchos modelos en competencia para el desarrollo de software, y la competencia alentó la mejora constante de cada modelo.
Desde entonces han surgido dos enfoques diferentes. El enfoque de Microsoft aboga por un sistema operativo que sea distinto de su hardware; el enfoque de Apple combina hardware y software en un sistema bien cerrado.
Además, y por separado, el enfoque de Linux abarca software gratuito de código abierto.
Cada uno de estos enfoques tiene sus propias ventajas. Mientras que Apple ofrece un diseño cohesivo y una experiencia de usuario perfecta, Microsoft permite a los usuarios más opciones y opciones de personalización. Sin embargo, el enfoque de código abierto permite a cualquier usuario modificar el software como mejor le parezca.
Hasta ahora, ningún enfoque ha dominado la industria. Y lo que es más importante, con la existencia continua de cada uno de estos modelos, surge la competencia que inspira a cada uno a mejorar continuamente.
Internet se construyó a través de una asociación de militares, universidades y corporaciones privadas
Una innovación a menudo lleva el sello del entorno que la creó. Esto es particularmente cierto para cómo surgió Internet.
Internet se creó como un esfuerzo puramente colaborativo, en una asociación de las fuerzas armadas, universidades y corporaciones privadas de EE.
Sin embargo, el profesor Vannevar Bush fue el individuo que unió a estos grupos. Como decano de la Escuela de Ingeniería del MIT, cofundador de la empresa de electrónica Raytheon y principal administrador de ciencia militar de Estados Unidos durante la Segunda Guerra Mundial, Bush tenía una visión y una experiencia únicas para inspirar este esfuerzo de colaboración.
En 1945, Bush publicó un informe instando al gobierno a financiar la investigación básica en asociación con las universidades y la industria para garantizar la seguridad militar y económica de los Estados Unidos.
A partir de este informe, el Congreso de los Estados Unidos estableció la National Science Foundation, una organización que reúne a expertos de diversos campos. Esto, a su vez, ayudó a desencadenar la revolución tecnológica que dio forma a gran parte del siglo XX.
Los académicos y los expertos en informática dentro de este marco pudieron compartir ideas libremente. El más fundamental de ellos provino del psicólogo y tecnólogo JCR Licklider, un pionero cuyas ideas se convirtieron en algunos de los conceptos fundamentales de Internet.
Licklider imaginó redes descentralizadas que permitirían que la información fluya hacia y desde cualquier lugar, así como las interfaces que apoyarían la interacción hombre-máquina en tiempo real.
Pero fue el colega de Licklider, Bob Taylor, quien imaginó una red que podría permitir a los centros de investigación compartir recursos informáticos y colaborar en proyectos. Y fue otro colega, Larry Roberts, quien ayudó a construir esta red.
Por lo tanto, ARPANET, lanzado en 1969, cumplió funciones tanto militares como académicas. No fue hasta 1973 cuando varias redes independientes pudieron combinarse con la creación de un protocolo de comunicaciones llamado Protocolo de Internet , creando lo que ahora conocemos como Internet.
Las políticas gubernamentales cuidadosamente elaboradas llevaron a la apertura de Internet al público
Aunque el ordenador personal e Internet se concibieron aproximadamente al mismo tiempo y con el mismo espíritu, el desarrollo de cada uno siguió un camino diferente.
Una de las razones de esto fue que Internet no era inicialmente un recurso público, y solo tenían acceso aquellos conectados a una institución educativa o de investigación. En este momento, también se desarrollaron el correo electrónico y las primeras comunidades en línea (como tableros de anuncios y grupos de noticias).
Sin embargo, antes de que podamos hablar de una revolución en línea, el público tuvo que encontrar una forma de acceder a Internet. Esto no fue posible hasta la invención del módem, que permitió a las computadoras personales acceder a redes globales a través de líneas telefónicas.
Sin embargo, todavía existía una densa maraña de leyes y regulaciones que impedían a las empresas comerciales, como America Online (AOL), conectar fácilmente a los clientes.
Antes de que Al Gore fuera elegido vicepresidente en 1992, ayudó a desenredar la burocracia como senador escribiendo y defendiendo la aprobación de la Ley de Comunicaciones y Computación de Alto Rendimiento de 1991, también conocida simplemente como la Ley Gore.
La ley redujo la barrera de entrada en las comunicaciones de Internet con el objetivo de establecer una “infraestructura nacional de información”, que permitiría a los servicios comerciales desarrollar aún más las conexiones a Internet y hacerla más disponible para el uso público.
La avalancha de nuevos usuarios que se suscribieron a servicios como AOL en los años siguientes transformó por completo la forma en que se podía y se utilizaría Internet, allanando el camino para una asombrosa era de innovación.
El exvicepresidente Gore no es, como se solía bromear a finales de la década de 1990, el «padre de Internet». Sin embargo, su previsión y determinación para hacer que Internet sea ampliamente accesible es loable.
Sus esfuerzos llevaron a la siguiente fase de la Revolución Digital, donde las computadoras se convirtieron en herramientas tanto para la creatividad personal como para la colaboración.
Tim Berners-Lee es el talento tecnológico singular que concibió la World Wide Web
Aunque los módems y los servicios en línea hicieron posible que casi cualquier persona acceda a Internet, los primeros usuarios se encontraron perdidos en una jungla técnica sin forma de navegar.
Para la mayoría, era demasiado difícil encontrarle sentido a los inicios de Internet, hasta la llegada de la World Wide Web, que se produjo en gran parte gracias a los esfuerzos de Tim Berners-Lee.
Hijo de dos informáticos, Berners-Lee ya había hecho una idea fundamental cuando era niño y crecía en el Londres de la década de 1960: mientras que una computadora es buena para procesar números y procesar información lineal, no puede hacer asociaciones aleatorias y vincular información en un moda inteligente como puede hacerlo una mente humana creativa.
Al combinar Internet e hipertexto (palabras o frases con un código especial que, cuando se hace clic, envían al usuario a otro contenido relacionado), Berners-Lee tenía como objetivo hacer realidad su visión de una red de información de fácil acceso en constante crecimiento y evolución.
Robert Cailliau, un ingeniero belga que trabaja en la Organización Europea para la Investigación Nuclear en Ginebra (conocida como CERN), ayudó a Berners-Lee a fortalecer su propuesta de financiación para que su concepto pudiera convertirse en realidad.
Y mientras que la administración del CERN había esperado inicialmente una patente, Berners-Lee creía en cambio que la World Wide Web debería permanecer libre y abierta para expandirse y evolucionar.
La fe de Berners-Lee en su convicción de que una Web más libre es una Web mejor es lo que le permitió convertirse en lo que él había imaginado: una plataforma para compartir información y colaboración.
Deja una respuesta
Lo siento, debes estar conectado para publicar un comentario.