Trabajando-con-paas

Trabajando con Platform as a Service, para el curso de cloud computing del CEP de Jaén


Project maintained by JJ Hosted on GitHub Pages — Theme by mattgraham

Trabajando con PaaS: Plataformas como servicio

Objetivos

  1. Conocer herramientas de desarrollo rápido de aplicaciones web en node.
  2. Conocer las diferentes plataformas freemium PaaS existentes.
  3. Entender el concepto de PaaS y como se relaciona con los otros niveles de la nube.
  4. Comenzar a usar un PaaS.
  5. Aprender a desplegar automáticamente.

Introducción

Si no lo has consultado todavía, puedes echarle un vistazo al tutorial de desarrollo basado en pruebas que precedía a este dentro del curso.

Cuando uno quiere parte del trabajo de instalación ya hecho, o al menos preparado para hacer con la pulsación de un botón, a la vez que tiene flexibilidad para trabajar con marcos de aplicaciones más allá de lo que ofrece programar plugins (como en el SaaS), necesita un Platform as a Service o PaaS. Un PaaS proporciona una pila que incluye, generalmente, almacenamiento de datos, un marco concreto para trabajar (tal como Django o Ruby on Rails) y, adicionalmente, un servidor web.

Esto conlleva una cierta falta de flexibilidad: se pueden usar las pilas que proporciona en servicio y el usuario sólo puede subir su aplicación que las use, no instalar elementos adicionales que necesiten permisos de superusuario. Pero, por otro lado, ofrece la comodidad de tener que concentrarse sólo en la aplicación en sí y no en la infraestructura si se trata de una aplicación que use los marcos más comunes. Es, por eso, menos DevOps que una solución IaaS, pero por otro lado también tiene una parte que es la configuración y despliegue de la aplicación en sí y los tests que se vayan a usar.

Usando un servicio PaaS

La mayoría de los servicios PaaS están ligados a una pila de soluciones determinada o a un vendedor determinado. Han surgido muchos, por ejemplo, en torno a node.js, un intérprete de JavaScript asíncrono que permite crear fácilmente aplicaciones REST.

Algunos servicios PaaS son específicos (sólo alojan una solución determinada, como CloudAnt que aloja una base de datos con CouchDB o genéricos), permitiendo una serie de soluciones en general relativamente limitada; Heroku y OpenShift están entre estos últimos, pero también hay otros como AppFog y otros muchos, depende del tipo de pila que quieras alojar; los tres anteriores son los que trabajan bien con node.js, igual que nitrous.io.

Después de probar casi todos los servicios anteriores, me da la impresión de que poco hay más allá de Heroku y Openshift. AppFog y Nodejitsu, después de la efervescencia inicial, dan 30 días de prueba solamente. Me falta por probar nitrous.io, pero del resto, al menos los que funcionan con node.js, poco más hay.

dotCloud (que ya no se puede usar de forma gratuita) trabaja con Perl, por ejemplo, como Stackato y otras.

Darse de alta en algún servicio PaaS tal como Heroku, Nodejitsu u OpenShift.

Estos servicios proveen un número limitado de máquinas virtuales y siguen en general un modelo freemium: capacidades básicas son gratuitas y para conseguir mayores prestaciones o un uso más intensivo, o bien capacidades que no entren en el paquete básico, hay que pasar al modelo de pago. Estas máquinas virtuales se denominan dynos en Heroku y simplemente aplicaciones en OpenShift, aunque los dynos son mucho más flexibles que las aplicaciones de OpenShift. Generalmente, los PaaS proporcionan un toolbelt o herramientas de línea de órdenes que permiten controlarlos directamente desde nuestra aplicación; estos conjuntos de herramientas acceden a un API que también podemos manipular en caso necesario. Tanto desde estas herramientas como desde el panel de control, los PaaS permiten escalar fácilmente una aplicación, añadiéndole nuevos nodos sin necesidad de modificar la aplicación. El propio middleware del PaaS se encarga de equilibrar la carga

Aunque no necesariamente lo hace de la mejor forma. Heroku cambió el enrutado de forma que ya no funciona tan bien como lo hacía 5 años atrás.

entre los diferentes nodos que uno tenga. La ventaja es que te ofrece un PaaS es que, aunque evidentemente haya que pagar por lo que se consume, sólo hay que hacerlo mientras se necesita; una vez pasado el pico, se puede escalar hacia abajo eliminando los nodos que uno no necesite; por supuesto, el propio PaaS suele proveer de herramientas que hagan esto de forma más o menos automática.

La interacción con los PaaS se hace en general a través de una herramienta de línea de órdenes que permite, para empezar, crear fácilmente a partir de una plantilla una aplicación básica con las características definidas; en ambos casos habrá que descargar una aplicación libre para llevar a cabo ciertas tareas como monitorizar el estatus y hacer tests básicos; una vez creado el fuente de la aplicación el despliegue en la máquina virtual se hace mediante git tal como hemos contado anteriormente.

Los lenguajes más habituales en las PaaS son los de scripting, que permiten crear aplicaciones rápidamente; las bases de datos disponibles son tanto las clásicas DBMS aunque, con más frecuencia, se usan las bases de datos NoSQL como MongoDB, Redis o CouchDB.

En cualquier caso, los PaaS suelen tener un panel de control que permite hacer ciertas cosas como configurar plugins o add-ons desde la web fácilmente. Estos suelen seguir el mismo modelo freemium: diferentes tamaños o instancias son gratuitas o tienen un coste; en algunos casos cualquier instancia tiene un coste, y en algunas plataformas, como Heroku, hay que introducir datos de facturación (para cuando se excedan los límites gratuitos) en casi todos los add-ons, lo que deja una cantidad limitada para uso de pruebas o enseñanza.

En todo caso, no está mal tener disponible una tarjeta de crédito, posiblemente virtual o de prepago, para trabajar con todo tipo de infraestructuras de nube en pruebas; puedes acceder a muchos más servicios y posibilidades y, aunque se excedan los límites gratuitos, el coste no suele ser grande.

Los PaaS no dejan acceso completo a la máquina virtual que ejecuta nuestra aplicación y, en muchos casos, tienen también otras limitaciones. Por ejemplo, no dejan conectar por ssh o no tienen un sistema de ficheros permanente, de forma que hay que usar de forma forzosa un almacenamiento de datos que sea un add-on o bien otro externo que se ofrezca de forma independiente (pero siguiendo el mismo modelo). También hay que tener en cuenta que las prestaciones que vamos a poder obtener de los tier gratuitos no van a ser como para poder montar una startup y forrarnos: son muy limitadas, tanto en latencia como en CPU como en memoria.

En general, el enfoque para este tipo de herramientas (y para casi todo el desarrollo web moderno) es trabajar con servidores REST que envíen al cliente algún tipo de información de la que este estará encargado y plasmará. También eso facilita el desarrollo de cualquier tipo de cliente, móvil, navegador o incluso middleware, que puede estar incluido en la misma aplicación. Por eso haremos un pequeño recorrido por el concepto de servicios REST, basados en los verbos del protocolo HTTP.

El protocolo HTTP y sus múltiples posibilidades

El protocolo HTTP es uno de los protocolos más infrautilizados de la historia. A pesar de que ofrece múltiples posibilidades y versiones, se usa simplemente para enviar y recibir información de un servidor. Para recibir información se usa la orden GET, y para enviar, la orden POST. Pero también hay otras posibilidades, PUT (que envía un recurso determinado al servidor), DELETE (que borra un recurso del servidor) e incluso HEAD (igual que GET, pero sin el cuerpo de la respuesta).

El protocolo HTTP gira alrededor del concepto de recurso: un recurso en un servidor está identificado por un URI, y es la mínima acción que un servidor puede realizar. Como características adicionales, la acción de algunas peticiones (GET y HEAD) debe ser segura, es decir, dejar al servidor en el mismo estado que antes de la petición. Otras acciones, como PUT y DELETE, se denominan idempotentes: el hacer varias veces la misma petición tiene el mismo efecto que el hacerla una sola vez.

HTTP funciona puramente como cliente-servidor: se hace una petición, y se espera la respuesta. Lo que no quiere decir que no se puedan hacer peticiones concurrentes y asíncronas; sin embargo, esas peticiones tendrán que estar dentro del marco de una página web (o sea, una aplicación).

A las peticiones el servidor responde con una serie de códigos estándar, que usan la misma presentación que la petición: texto puro y duro. Cuando todo va bien, la respuesta es 200 OK; los códigos 2xx corresponden, en general, a una petición hecha, y fuera de los 2xx existe el caos y el descontrol. En especial, un código 500 implica error en el servidor. Evidentemente, estos mensajes están pensados para que los lea un cliente en el navegador; sin embargo, cuando trabajamos directamente sobre este protocolo, nuestro programa deberá ser consciente de ellos y responder de forma adecuada como si se tratara de una llamada a otro procedimiento.

Las aplicaciones construidas alrededor del protocolo HTTP y sus características se suelen llamar aplicaciones RESTful (REST == REpresentational State Transfer). La idea de REST es que se transfiere el estado del servidor al cliente. Un recurso tiene una representación, que se transfiere al cliente por una petición; esa representación se puede cambiar con diferentes operaciones. Sin embargo, con esto sólo estamos especificando la capa más baja del servicio web; hace falta una capa de mensajería. Y esta capa de mensajería se suele denominar POX, o Plain Old XML (XML de toda la vida), es decir XML bien formado con algunas ampliaciones, pero sin ningún tipo de validación. En algunos casos se usa texto directamente, aunque también se puede usar JSON o cualquier otro tipo de capa.

De hecho, las aplicaciones REST suelen ser más populares que otros servicios web, por el simple hecho de que es muy fácil construir el interfaz: simplemente creando una cadena determinada. Eso los hace también más rápidos, aunque sean menos flexibles.

Vamos a ver un interfaz de este tipo relativamente reciente. Inicialmente nuestra idea era usar el de Twitter, un sitio social que transmite a todo el que quiera escucharlo las líneas de estado (mensajes de menos de 200 caracteres). El API de Twitter es RESTful, y está bastante bien diseñada. Para usarla es necesario darse de alta; desde la versión 1.1 del interfaz todas las peticiones necesitan autenticación. Así que usaremos otro interfaz, el de GitHub, para hacer pruebas. Por ejemplo, esta petición te dará todas las organizaciones a las que pertenece el usuario JJ:

bash$ curl -i https://api.github.com/users/JJ/orgs

Para llevar a cabo este ejemplo hay que instalar curl, un programa que en una primera aproximación es simplemente un descargador de páginas web pero que en segunda se puede usar como un completo cliente REST; en este caso -i te incluye las cabeceras en la salida, con lo que producirá algo de este estilo

HTTP/1.1 200 OK
Server: GitHub.com
Date: Thu, 11 Dec 2014 09:57:32 GMT
Content-Type: application/json; charset=utf-8
Status: 200 OK
X-RateLimit-Limit: 60
X-RateLimit-Remaining: 59
X-RateLimit-Reset: 1418295452
Cache-Control: public, max-age=60, s-maxage=60
ETag: "4bb99f4903f3cfdd807ecd91fcab8c5b"
Vary: Accept
X-GitHub-Media-Type: github.v3
X-XSS-Protection: 1; mode=block
X-Frame-Options: deny
Content-Security-Policy: default-src 'none'
Content-Length: 1437
Access-Control-Allow-Credentials: true
Access-Control-Expose-Headers: ETag, Link, X-GitHub-OTP, X-RateLimit-Limit, X-RateLimit-Remaining, X-RateLimit-Reset, X-OAuth-Scopes, X-Accepted-OAuth-Scopes, X-Poll-Interval
Access-Control-Allow-Origin: *
X-GitHub-Request-Id: 96D6CD29:6713:5D13B3E:54896A8C
Strict-Transport-Security: max-age=31536000; includeSubdomains; preload
X-Content-Type-Options: nosniff
Vary: Accept-Encoding
X-Served-By: 2811da37fbdda4367181b328b22b2499

[
  {
	"login": "openkratio",
	"id": 2310256,
	"url": "https://api.github.com/orgs/openkratio",
	"repos_url": "https://api.github.com/orgs/openkratio/repos",
	"events_url": "https://api.github.com/orgs/openkratio/events",
	"members_url": "https://api.github.com/orgs/openkratio/members{/member}",
	"public_members_url": "https://api.github.com/orgs/openkratio/public_members{/member}",
	"avatar_url": "https://avatars.githubusercontent.com/u/2310256?v=3"
  },
  {
	"login": "CANUBE",
	"id": 3839808,
	"url": "https://api.github.com/orgs/CANUBE",
	"repos_url": "https://api.github.com/orgs/CANUBE/repos",
	"events_url": "https://api.github.com/orgs/CANUBE/events",
	"members_url": "https://api.github.com/orgs/CANUBE/members{/member}",
	"public_members_url": "https://api.github.com/orgs/CANUBE/public_members{/member}",
	"avatar_url": "https://avatars.githubusercontent.com/u/3839808?v=3"
  },
  {
	"login": "MusesProject",
	"id": 6651546,
	"url": "https://api.github.com/orgs/MusesProject",
	"repos_url": "https://api.github.com/orgs/MusesProject/repos",
	"events_url": "https://api.github.com/orgs/MusesProject/events",
	"members_url": "https://api.github.com/orgs/MusesProject/members{/member}",
	"public_members_url": "https://api.github.com/orgs/MusesProject/public_members{/member}",
	"avatar_url": "https://avatars.githubusercontent.com/u/6651546?v=3"
  }
]

La idea de REST desde el punto de vista del servidor es usar el URL para representar recursos, y las propias órdenes de HTTP para ejercitar acciones sobre ese recursos. En general, GET servirá para transferir la representación de un recurso del cliente al servidor, POST cambiará el estado de un recurso, PUT (que no se suele usar tan a menudo) directamente cambiaría la representación del recurso, mientras que DELETE borraría el recurso; a estas arquitecturas se les suele denominar también arquitecturas orientadas al recurso.

Hay muchos más verbos HTTP; también se pueden crear interfaces REST usando verbos uPnP. Sin embargo, con esos cuatro más posiblemente HEAD, que devuelve los metadatos de un recursos, es, en general, suficiente para crear una aplicación.

Cualquier cliente offline como wget o el anteriormente mencionado curl pueden servir para hacer pruebas sobre un cliente REST como el anterior. También se pueden instalar extensiones para Chrome como Postman que tiene un interfaz más amigable y además te permite crear peticiones complejas, con autenticación y demás.

Buscar un interfaz API abierto y crear diferentes peticiones con Postman.

Por eso también se suelen proponer una serie de buenas prácticas para diseñar un interfaz REST:

Por ejemplo, supongamos que hay que diseñar un interfaz REST para una quiniela deportiva. Hay una quiniela por jornada, y cada jornada tiene 15 partidos. Supongamos que se conocen los partidos de antemano, y que sólo se pueden proponer resultados por parte de un usuario. Se podría diseñar el interfaz de la forma siguiente:

Las operaciones HTTP que se van a usar vienen determinadas por el diseño del interfaz. Por ejemplo, para proponer un resultado determinado habría que hacer una petición POST con dos parámetros: el nombre de usuario y el resultado propuesto. El servidor responderá con un mensaje estándar HTTP y un fichero XML si se ha podido hacer correctamente, y con un error HTTP si no.

Si se trabaja con servidores tradicionales como Apache, es relativamente fácil crear interfaces REST con esta sintaxis para programas tradicionales. Sin embargo, es normal que el servidor web esté incluido en el marco de desarrollo e incluya una forma fácil de crear estas rutas, que equivalen a llamadas al API en REST.

Creando una aplicación para su despliegue en un PaaS

Para diseñar interfaces REST de forma bastante simple, hay un módulo de node.js llamado express. La idea de este módulo es reflejar en el código, de la forma más natural posible, el diseño del interfaz REST.

Pero primero hay que instalarlo. Node.js tiene un sistema de gestión de módulos bastante simple llamado npm que ya hemos usado. Tras seguir las instrucciones en el sitio para instalarlo (o, en el caso de Ubuntu, instalarlo desde Synaptic o con apt-get), vamos al directorio en el que vayamos a crear el programa y escribimos

npm install express --save

en general, no hace falta tener permiso de administrador, sólo el necesario para crear, leer y ejecutar ficheros en el directorio en el que se esté trabajando. --save guarda la dependencia en package.json siempre que esté en el mismo directorio, que convendría que estuviera, así no tenemos que recordar qué es lo que está instalado.

Tras la instalación, el programa que hemos visto más arriba se transforma en el siguiente:

#!/usr/bin/env node

var express=require('express');
var app = express();
var port = process.env.PORT || 8080;

app.get('/', function (req, res) {
	res.send( { Portada: true } );
});

app.get('/proc', function (req, res) {
	res.send( { Portada: false} );
});  

app.listen(port); 
console.log('Server running at http://127.0.0.1:'+port+'/');

Para empezar, express nos evita todas las molestias de tener que procesar nosotros la línea de órdenes: directamente escribimos una función para cada respuesta que queramos tener, lo que facilita mucho la programación. Las órdenes reflejan directamente las órdenes de HTTP a las que queremos responder, en este caso get y por otro lado se pone directamente la función para cada una de ellas. Dentro de cada función de respuesta podemos procesar las órdenes que queramos.

Por otro lado, se usa send para enviar el resultado, una orden más flexible que admite todo tipo de datos que son procesados para enviar al cliente la respuesta correcta. Tampoco hace falta establecer explícitamente el tipo MIME que se devuelve, encargándose send del mismo.

En los dos casos, las peticiones devuelven JSON. Una aplicación de este tipo puede devolver cualquier cosa, HTML o texto, pero conviene acostumbrarse a pensar en estas aplicaciones como servidores a los cuales se va a acceder desde un cliente, sea un programa que use un cliente REST o sea desde el navegador usando jQuery o JavaScript.

Realizar una aplicación básica que use express para devolver alguna estructura de datos del modelo que se viene usando en el curso.

Con el mismo express se pueden generar aplicaciones no tan básicas ejecutándolo de la forma siguiente:

node_modules/express/bin/express prueba-rest

Se indica el camino completo a la aplicación binaria, que sería el puesto. Con esto se genera un directorio prueba-rest. Cambiándoos al mismo y escribiendo simplemente npm install se instalarán las dependencias necesarias. La aplicación estará en el fichero index.js, lista para funcionar, pero evidentemente habrá que adaptarla a nuestras necesidades particulares.

El acceso a los parámetros de la llamada y la realización de diferentes actividades según el mismo se denomina enrutado. En express se pueden definir los parámetros de forma bastante simple, usando marcadores precedidos por :. Por ejemplo, si queremos tener diferentes contadores podríamos usar el programa siguiente:

var express = require('express');
var app = express();

// recuerda ejecutar antes grunt creadb
var db_file = "porrio.db.sqlite3";
var apuesta = require("./Apuesta.js");
var porra = require("./Porra.js");

var porras = new Array;

app.set('port', (process.env.PORT || 5000));
app.use(express.static(__dirname + '/public'));

app.put('/porra/:local/:visitante/:competition/:year', function( req, response ) {
	var nueva_porra = new porra.Porra(req.params.local,req.params.visitante,
					  req.params.competition, req.params.year );
	porras.push(nueva_porra);
	response.send(nueva_porra);
});

app.get('/porras', function(request, response) {
	response.send( porras );
});

app.listen(app.get('port'), function() {
  console.log("Node app is running at localhost:" + app.get('port'));
});

Este programa (express-count.js) introduce otras dos órdenes REST: PUT, que, como recordamos, sirve para crear nuevos recurso y es idempotente (se puede usar varias veces con el mismo resultado) y además GET. Esa orden la vamos a usar para crear contadores a los que posteriormente accederemos con get. PUT no es una orden a la que se pueda acceder desde el navegador, así que para usarla necesitaremos hacer algo así desde la línea de órdenes: curl -X PUT http://127.0.0.1:8080/porra/local/visitante/Copa/2013 para lo que previamente habrá que haber instalado curl, claro. Esta orden llama a PUT sobre el programa, y crea un partido con esas características. Una vez creado, podemos acceder a él desde la línea de órdenes o desde el navegador; la dirección http://127.0.0.1:8080/porras nos devolverá en formato JSON todo lo que hayamos almacenado hasta el momento.

Todas las órdenes definen una ruta, que es como se denominan cada una de las funciones del API REST. Las rutas pueden ser simples cadenas (como /porras en el caso de get) o incluir parámetros, como en el caso de put: /porra/:local/:visitante/:competition/:year incluye una orden al principio y cuatro parámetros. Estos parámetros se recuperan dentro de la función callback como atributos de la variable req.params, tales como req.params.local en las siguientes líneas.

Realizar u na app en express que incluya variables como en el caso anterior.

Probando nuestra aplicación en la nube

Porque esté en la nube no significa que no tengamos que testearla como cualquier hija de vecina. En este caso no vamos a usar tests unitarios, sino test funcionales (o como se llamen); de lo que se trata es que tenemos que levantar la web y que vaya todo medianamente bien.

Los tests podemos integrarlos, como es natural, en el mismo marco que el resto de la aplicación, sólo que tendremos que usar librerías de aserciones ligeramente diferentes, en este caso supertest

var request = require('supertest'), 
app = require('../index.js');

describe( "PUT porra", function() {
	it('should create', function (done) {
	request(app)
		.put('/porra/uno/dos/tres/4')
		.expect('Content-Type', /json/)
		.expect(200,done);
	});
});

(que tendrá que estar incluido en el directorio test/, como el resto). En vez de ejecutar la aplicación (que también podríamos hacerlo), lo que hacemos es que añadimos al final de index.js la línea:

module.exports = app;

con lo que se exporta la app que se crea; require ejecuta el código y recibe la variable que hemos exportado, que podemos usar como si se tratara de parte de esta misma aplicación. app en este test, por tanto, contendrá lo mismo que en la aplicación principal, index.js. Usamos el mismo estilo de test con mocha que ya se ha visto pero usamos funciones específicas:

Podemos hacer más pruebas, usando get, por ejemplo. Pero se deja como ejercicio al alumno.

Estas pruebas permiten que no nos encontremos con sorpresas una vez que despeguemos en el PaaS. Así sabemos que, al menos, todas las rutas que hemos creado funcionan correctamente.

Crear pruebas para las diferentes rutas de la aplicación.

Desplegando en el PaaS

Podemos, por ejemplo, desplegarlo en Heroku.

Sitios como Openshift o Nodester tienen sistemas también similares, pero por lo pronto vamos a usar este, que tiene un sistema un poco más abierto y completo.

Tras abrir una cuenta en Heroku, crear una aplicación en Node es bastante directo. Primero, hay que tener en cuenta que en el PaaS, como debería de ser obvio, se trata de aplicaciones web. Por eso la aplicación más simple que se propone usa ya express (o, para el caso, cualquier otro marco de servicios REST).

  1. Descarga el cinturón de herramientas de Heroku
  2. Haz login con heroku login.
  3. Descarga la aplicación de ejemplo para node. Es una aplicación simple de node y express. Heroku tiene una serie de ejemplos para diferentes lenguajes de programación. Por ejemplo, para PHP. Heroku admite 7 lenguajes, Scala, Clojure, Java, Ruby y Python
  4. Con heroku create (dentro del directorio descargado) se crea la aplicación en heroku. Previamente lo único que había era un repo, con esta orden se crea una aplicación en heroku y se conecta con el repositorio descargado; esencialmente lo que se hace es que se añade un destino, heroku al que podemos hacer push. Con esto se crea una app de nombre aleatorio, que luego podremos modificar. Puedes darle también un nombre a la aplicación y asignarle un servidor en Europa (legalmente obligatorio) escribiendo heroku apps:create --region eu nombre_muy_chulo Si te asignan un nombre puedes cambiarlo también más adelante, en la web y en el repo.

Esto crea una aplicación en la web de Heroku, que al hacer git push heroku master se pondrá en marcha. La mayoría de los PaaS usa git push como modo de despliegue, que permite tener controlada la versión de todos los ficheros que hay en el mismo y además, con los ganchos post-push, compilar y ejecutar la aplicación a través de los llamados Buildpacks.

Instalar y echar a andar tu primera aplicación en heroku.

Sólo hemos, por lo pronto, desplegado la aplicación por defecto.

Usando también el buildpack que esté programado para tu pila, el de Node o el que sea. Pero si eres un poco atrevido, puedes crear tu propio Buildpack, que puede estar escrito en cualquier lenguaje y consiste en realidad en tres scripts.

Se habrá generado un fichero denominado index.js que será, efectivamente, el que se ejecute. Pero ¿cómo sabe Heroku qué es lo que hay que ejecutar? Si miramos el fichero Procfile encontraremos algo así

web: node index.js

Este Procfile se usa para indicar a heroku qué es lo que tiene que ejecutar. En casi todos los casos se tratará de una aplicación web, y por tanto la parte izquierda, web: será común. Dependiendo del lenguaje, variará la parte derecha; en este caso le estamos indicando la línea de órdenes que hay que ejecutar para levantar la web que hemos creado.

Localmente, se recrea (aproximadamente) el entorno de Heroku usando Foreman. Para ejecutar localmente nuestra aplicación ejecutaremos foreman start web. foreman leerá el Procfile y ejecutará la tarea correspondiente a web, en este caso index.js. Podemos interrumpirlo simplemente tecleando Ctrl-C.

foreman actúa como un envoltorio de tu aplicación, ejecutando todo lo necesario para que funcione (no sólo la web, sino bases de datos o cualquier otra cosa que haya que levantar antes) codificando por colores la salida correspondiente a cada proceso y presentando también el registro o log de la misma de forma más amigable.

Usar como base la aplicación de ejemplo de heroku y combinarla con la aplicación en node que se ha creado anteriormente. Probarla de forma local con foreman. Al final de cada modificación, los tests tendrán que funcionar correctamente; cuando se pasen los tests, se puede volver a desplegar en heroku.

Si está package.json bien configurado, por ejemplo, de esta forma

"scripts": {
  "test": "mocha",
  "start": "node index.js"
},

se puede arrancar también la aplicación, sin ningún tipo de envoltorio, simplemente con npm start, que ejecutará lo que hay a su izquierda. La clave scripts de package.json contiene una serie de tareas o procesos que se pueden comenzar; en ese sentido, la funcionalidad se solapa con el Gruntfile que se ha visto anteriormente.

Siempre hay más de una manera de hacer las cosas.

Ahora hay que gestionar los dos repositorios de git que tenemos. heroku create (en cualquiera de sus formas) crea un destino heroku dentro de la configuración de git de forma que se pueda hacer git push heroku master; heroku aquí no es más que un alias a la dirección de tu aplicación, que si miras en .git/config estará definido de una forma similar a la siguiente

[remote "heroku"]
   url = git@heroku.com:porrio.git
   fetch = +refs/heads/*:refs/remotes/heroku/*

Es el mismo resultado que si hubiéramos dado la orden

git remote add heroku git@heroku.com:porrio.git

es decir, crear un alias para la dirección real del repositorio en Heroku (que puedes consultar desde tu panel de control; será algo diferente a lo que hay aquí e igual que el nombre_muy_chulo que hayas decidido darle. Si vas a subir a Heroku una aplicación ya creada, tendrás que añadir esta orden. Si te has descargado el ejemplo de GitHub y seguido las instrucciones anteriores, tendrás que crear un repositorio vacío propio en GitHub y añadirle este como origin de la forma siguiente

# Borra el origen inicial, que será el de la aplicación de ejemplo
git remote rm origin
# Crea el nuevo origin
git remote add origin  git@github.com:mi-nick/mi-app.git

Todo esto puedes ahorrártelo si desde el principio haces un fork de la aplicación de node y trabajas con ese fork; el origen estará ya definido.

Ahora tienes dos repositorios: el que está efectivamente desplegado y el que contiene los fuentes. ¿No sería una buena idea que se trabajara con uno sólo? Efectivamente, GitHub permite desplegar directamente a Heroku cuando se hace un push a la rama master, aunque no es inmediato, sino que pasa por usar un servicio de integración continua, que se asegure de que todo funciona correctamente.

Para eso, evidentemente, el sitio en el que se despliegue debe estar preparado. No es el caso de Heroku

Heroku tiene, sin embargo, una beta reciente en GitHub y posiblemente funcione en el futuro próximo, que necesita un servicio intermedio para llevarlo a cabo, aunque se puede probar ahora mismo en beta

Otros sistemas, como AWS CodeDeploy de Amazon pueden desplegar a una instancia en la nube de esta empresa. Sin embargo, no es complicado configurar un servicio de integración continua como Snap CI. Después de darte de alta en el Snap CI, la configuración se hace desde un panel de control y, si ya lo tienes configurado para Travis (como deberías) el propio sitio detecta la configuración automáticamente.

Para añadir el paso de despliegue a Heroku hay que hacer un paso adicional: en el menú de Configuración se puede añadir un paso adicional tras el de Test, en el que no hay que más que decirle el repositorio de Heroku al que se va a desplegar.

Panel de control de Snap CI con despliegue a Heroku

Con esto, un simple push a una rama determinada, que sería la master, se hará que se pruebe y, en caso de pasar los tests, se despliegue automáticamente en Heroku.

Haz alguna modificación a tu aplicación en node.js para Heroku, sin olvidar añadir los tests para la nueva funcionalidad, y configura el despliegue automático a Heroku usando Snap CI o alguno de los otros servicios, como Codeship, mencionados en StackOverflow

En principio se ha preparado a la aplicación para su despliegue en un solo PaaS, Heroku. Pero, ¿se podría desplegar en otro PaaS también?

Hay que dar un paso atrás y ver qué es necesario para desplegar en Heroku, aparte de lo obvio, tener una cuenta. Hacen falta varias cosas:

  1. Un packaje.json, aunque en realidad esto no es específico de Heroku sino de cualquier aplicación y cualquier despliegue.
  2. El fichero Procfile con el trabaja Foreman y que distribuye las tareas entre los diferentes dynos: web, worker y los demás.
  3. Requisitos específicos de IP y puerto al que escuchar y que se pasan a app.listen. Estos parámetros se definen como variables de entorno.

Teniendo en cuenta esto, no es difícil cambiar la aplicación para que pueda funcionar correctamente al menos en esos dos PaaS, que son los más populares. En Openshift, en realidad, no hace falta Procfile. Como no tiene el concepto de diferentes tipos de dynos, usa directamente package.json para iniciar la aplicación. Por otro lado, los requisitos específicos de puerto e IP se tienen en cuenta en estas dos órdenes:

var server_ip_address = process.env.OPENSHIFT_NODEJS_IP
                          || '0.0.0.0';
app.set('port', (process.env.PORT
                 || process.env.OPENSHIFT_NODEJS_PORT
				 || 5000));

En la primera se establece la IP en la que tiene que escuchar la aplicación. En el caso por omisión, el segundo, la dirección 0.0.0.0 indica que Express escuchará en todas las IPs. Sin embargo, eso no es correcto ni posible en OpenShift, que tiene una IP específica, contenida en la variable de entorno OPENSHIFT_NODEJS_IP y que será una IP de tipo local (aunque realmente esto no tiene que importarnos salvo por el caso de que no podremos acceder a esa IP directamente).

En cuanto al puerto, en los dos casos hay variables de entorno para definirlo. Simplemente las vamos comprobando con   (OR) y si no está establecida ninguna, se asigna el valor por defecto, que también sirve para la ejecución local.

Darse de alta en OpenShift y preparar la aplicación con la que se ha venido trabajando hasta este momento para ejecutarse en ese entorno.

También en OpenShift se puede desplegar automáticamente usando Travis, por ejemplo. De hecho, incluso en Heroku se puede trabajar también con Travis para el despliegue automático, aunque es mucho más simple hacerlo con Snap CI como se ha indicado más arriba.