Buenas a todos,

El otro día en el trabajo me tuve que pegar para que PDI pueda conectarse a MySQL mediante SSL . No hay que decir que MySQL y SSL en la misma frase es ya de por si es un dolor pero si sumamos a este PDI ya es una verdadera pasada.

Cuando queremos que MySQL se conecto mediante SSL, pues básicamente cuando queremos que el trafico entre ambos sea encriptado  pero no queremos montar IPSEC o VPN.

Al final y buscando y buscando encontré la solución y  la verdad es que creo que me quedo muy elegante hay que modificar spoon pero bueno es lo que hay.

Generación del  JKS (Java Key Store)

Lo primero de todo es generar el Java Key Store a partir de los certificados y las claves del cliente con este comando:

openssl pkcs12 -export -inkey client-key.pem -in client-cert.pem -out client.packe

Después con el paquete generado generamos el Java Key Store, tenemos que tener en cuenta  que el password ha de ser el mismo. Y ya tenemos todo lo necesario para la conexion.

keytool -importkeystore -deststorepass password -destkeypass password -destkeystore myKS.jks -srckeystore client.packet -srcstoretype PKCS12 -srcstorepass password -alias 1
keytool -importcert -alias mysqlCA -trustcacerts -file /root/ca-cert.pem -keystore myKS.jks

Configuración de Spoon

Ahora hay que añadir a spoon los parametros de la maquina virtual.


-Djavax.net.ssl.keyStore=path_to_keystore_file -Djavax.net.ssl.keyStorePassword=password -Djavax.net.ssl.trustStore=path_to_truststore_file -Djavax.net.ssl.trustStorePassword=password

Una vez hemos hecho esto lo que tenemos que hacer es indicar a spoon que la conexion es cifrada y para eso lo podemos hacer en dos sitios:

SimpleJNDI

En el fichero que esta en data-integration/simple-jndi/jdbc.properties

verifyServerCertificate=false&useSSL=true&requireSSL=true

Properties Spoon

En el la conexión , el menú de options añadimos esos mimso parametros

Backup y Restore en #Pentaho de forma facil

Backup y Restore en #Pentaho de forma facil

Siempre he tenido el mismo problema cuando tengo un proyecto en producción como coño hago un backup de todo. Y como hago la restauraciòn del mismo.

  • Usuario
  • Datasource
  • Cuadros de Mando
  • etc..

Muy poca gente sabe que pentaho te da una pequeña ayuda, lo que he hecho es crear un envoltorio al script para que nos sea mas facil usarlo.

-- sample the native call
./import-export.sh --restore --url=http://localhost:8080/pentaho --username=admin --password=password --file-path=/home/Downloads/backup.zip --overwrite=true --logfile=/temp/logfile.log
./import-export.sh --backup --url=http://localhost:8080/pentaho --username=admin - -password=password --file-path=/home/Downloads/backup.zip --logfile=/temp/logfile.log

Con este shell podemos crear facilmente backups de todo e incluso mandarlo por rsync a otros host. Tambien tendremos la posibilidad de restaurar todo el sistema. Este shell no es valido o no esta pensado para un pentaho en cluster.

Como siempre comentarios son muy apreciado

Dynamic number of processing engines in Pentaho

Amazing

Codeks Blog

So about 3 years ago this foxed me, and as it wasn’t particularly important at the time we went with a hard coded number of processing engines.  Randomly whilst driving through the beautiful British countryside last week i realised how simple the solution really is.  Here is what i was passing at the time… (Brocket hall, they do food i think!)

1flowers3

Whoa! hang on a minute, what am I on about – OK the scenario is this – common in a metadata driven system – you want to process all your data, and depending on some attribute send the data to one template or another. Fine.

BUT because we love metadata, and we love plugins, you don’t want to have to change the code just to add a brand new template.  Even if it would just be a copy and paste operation..

Concrete example? Sure. You’re processing signal data. You…

Ver la entrada original 129 palabras más

Vertica Docker Workshop

Hola a todos,

Voy a ir poniendo pequeños post de una formación de iniciación de vertica.

Hoy toca instalar un docker con un vertica y poder lanzar algunas consultas y lanzar la consola de administración.

Bien os dejo en este post

  1. Instalamos Docker (en mac no usar brew) [mac] [linux] [windows]
  2. Después lanzar el siguiente comando (docker run -ti -p 5433:5433  sowe/vertica)
  3. Instalaros o bien el VSQL lo podeis descargar de aqui o dbeaver  clientes (recomiendo usar vcli)
  4. vsql -h IP -U dbadmin -w vertica -p 5433
  5.  adjunto imagen.

Si queremos ejecutar o entrar dentro del docker y lanzar la consola de administración.

  1. docker exec -ti <container_id> bash
    1. docker ps | grep vertica
      4046a40a6585        sowe/vertica        “/docker-entrypoint.s”   21 minutes ago     Up 21 minutes       0.0.0.0:5433->5433/tcp   compassionate_yonath
    2. docker exec -ti 4046a40a6585 bash
    3. root@4046a40a6585:/# cd /opt/vertica/examples/VMart_Schema/
    4. su dbadmin
    5. dbadmin@4046a40a6585:/# cd /opt/vertica/bin/
    6. ./admintool
insert20image201560en_01_04
admin console

Ahora podemos lanzar el VSQL o VCLI o el DEABER y ver que schemas y bases de datos tenemos.

  • vcli -h localhost -U dbadmin
  • vsql -h localhost -U dbadmin

dbader

 

Vertica Materiales

Hola a todos,

Como ya sabréis el proximo  Martes es el primer taller de Vertica en Madrid. Como quiero que todo el mundo tenga instalado un maquina virtual con linux y a ser posible con la base de datos ya funcionando os he creado una maquina virtual de VirtualBox y un Docker para ello.

Por otro lado os comento que podeis  instalaros  el VSQL (cliente por linea de comandos) os lo adjunto.

 

Nos vemos Mañana.