Dalibo SCOP
Formation | Module N2 |
Titre | Schéma et données |
Révision | 24.12 |
https://dali.bo/n2_pdf | |
EPUB | https://dali.bo/n2_epub |
HTML | https://dali.bo/n2_html |
Slides | https://dali.bo/n2_slides |
TP | https://dali.bo/n2_tp |
TP (solutions) | https://dali.bo/n2_solutions |
Vous trouverez en ligne les différentes versions complètes de ce document.
Cette formation est sous licence CC-BY-NC-SA. Vous êtes libre de la redistribuer et/ou modifier aux conditions suivantes :
Vous n’avez pas le droit d’utiliser cette création à des fins commerciales.
Si vous modifiez, transformez ou adaptez cette création, vous n’avez le droit de distribuer la création qui en résulte que sous un contrat identique à celui-ci.
Vous devez citer le nom de l’auteur original de la manière indiquée par l’auteur de l’œuvre ou le titulaire des droits qui vous confère cette autorisation (mais pas d’une manière qui suggérerait qu’ils vous soutiennent ou approuvent votre utilisation de l’œuvre). À chaque réutilisation ou distribution de cette création, vous devez faire apparaître clairement au public les conditions contractuelles de sa mise à disposition. La meilleure manière de les indiquer est un lien vers cette page web. Chacune de ces conditions peut être levée si vous obtenez l’autorisation du titulaire des droits sur cette œuvre. Rien dans ce contrat ne diminue ou ne restreint le droit moral de l’auteur ou des auteurs.
Le texte complet de la licence est disponible sur http://creativecommons.org/licenses/by-nc-sa/2.0/fr/legalcode
Cela inclut les diapositives, les manuels eux-mêmes et les travaux pratiques. Cette formation peut également contenir quelques images et schémas dont la redistribution est soumise à des licences différentes qui sont alors précisées.
PostgreSQL® Postgres® et le logo Slonik sont des marques déposées par PostgreSQL Community Association of Canada.
Ce document ne couvre que les versions supportées de PostgreSQL au moment de sa rédaction, soit les versions 13 à 17.
Sur les versions précédentes susceptibles d’être encore rencontrées en production, seuls quelques points très importants sont évoqués, en plus éventuellement de quelques éléments historiques.
Sauf précision contraire, le système d’exploitation utilisé est Linux.
Ce module a pour but de montrer la configuration et l’utilisation d’Ora2Pg.
Nous allons aborder ici les différentes étapes de la configuration d’Ora2Pg :
Chaque ligne non commentée doit commencer par l’une des clés de configuration. Il y en a environ 180 différentes.
La valeur de cette clé est variable. La directive de configuration et sa valeur doivent être séparées par une ou plusieurs tabulations.
Lorsque la valeur est une liste, le séparateur des éléments de la liste est généralement le caractère espace.
SKIP fkeys pkeys ukeys indexes checks
Toutes les clés dont la valeur peut être une liste peuvent être répétées plusieurs fois, exemple :
SKIP fkeys pkeys ukeys
SKIP indexes checks
Pour les autres, si elles sont répétées, la dernière valeur indiquée sera la valeur prise en compte.
IMPORT
Cette variable permet d’inclure un fichier de configuration dans le
fichier ora2pg.conf
. Ainsi on peut définir les variables
communes à toutes les configurations dans un seul fichier, qu’on inclut
dans tous les autres.
Par exemple :
IMPORT common.conf
Le fichier de configuration importé est chargé au moment où la
directive IMPORT
apparaît dans le fichier de configuration.
Si les directives importées se retrouvent aussi plus loin dans le
fichier de configuration, elles seront écrasées.
ORACLE_HOME
Cette variable très connue dans le monde Oracle permet de déterminer où se trouve le répertoire contenant toutes les bibliothèques Oracle ainsi que les autres fichiers d’un client (ou d’un serveur) Oracle.
Par exemple, pour un serveur Oracle 18c Express Edition, le
ORACLE_HOME
ressemble à cela :
ORACLE_HOME /opt/oracle/product/18c/dbhomeXE
Pour un client de la même version, on peut avoir :
ORACLE_HOME /usr/lib/oracle/18.5/client64
Si la variable d’environnement ORACLE_HOME
était définie
au moment de l’installation, ce paramètre possède alors déjà la bonne
valeur.
DEBUG
Lorsque DEBUG
est positionné à 1
, Ora2Pg va
envoyer tous les messages d’information, y compris les messages
d’erreur, sur la console.
Si cette variable est positionnée à 0
, alors Ora2Pg
restera muet.
Il est recommandé de le désactiver par défaut et, s’il doit être
activé, de rediriger la sortie standard dans un fichier ou d’utiliser un
fichier de traces en donnant le chemin complet à la directive
LOGFILE
.
LOGFILE
La valeur de cette directive correspond à un fichier dans lequel seront ajoutés tous les messages retournés par Ora2Pg. Ceci permet notamment de garder la trace complète des messages de la migration pour s’assurer qu’il n’y a pas eu de messages d’erreur.
ORACLE_DSN
Cette variable permet de déterminer la chaîne de connexion au serveur Oracle. On y trouve en particulier :
dbi:Oracle
IP
) :
host=
Oracle
: sid=
Voici par exemple la chaîne de connexion permettant de se connecter à
l’instance DB_SID
sur le serveur Oracle
oracle_server
:
ORACLE_DSN dbi:Oracle:host=oracle_server;sid=DB_SID
Il est possible aussi d’utiliser la notation Easy Connect ou
simplement l’alias de connexion renseigné dans le fichier
tnsnames.ora
:
ORACLE_DSN Oracle://serveur:1521/service # Easy connect
ORACLE_DSN dbi:Oracle:XE # Alias TNS
L’alias ci-dessus dispose de la définition suivante dans le fichier
$ORACLE_HOME/network/admin/tnsnames.ora
:
$ cat <<EOF >> $ORACLE_HOME/network/admin/tnsnames.ora
XE = (DESCRIPTION =
(ADDRESS = (PROTOCOL = TCP) (HOST = 192.168.1.10) (port = 1521))
(CONNECT_DATA = (SERVER = DEDICATED) (SERVICE_NAME = PDB_NAME))
) EOF
On peut tester cela simplement avec des outils comme
tnsping
ou encore sqlplus
.
Pour MySQL un datasource typique sera de la forme :
ORACLE_DSN dbi:mysql:host=192.168.1.10;database=sakila;port=3306
la partie SID propre à Oracle database est remplacée ici par
database
.
ORACLE_USER et ORACLE_PWD
On définit avec ces variables l’utilisateur et le mot de passe avec
lesquels Ora2Pg va se connecter au serveur Oracle
pour en
extraire des informations (schéma, données, etc.).
Il est préférable que cet utilisateur soit déclaré comme un
SYSDBA
dans Oracle
, c’est-à-dire un
utilisateur privilégié de type DBA (un peu comme l’utilisateur
postgres
l’est généralement pour un serveur
PostgreSQL).
L’export des droits (GRANT
) sur les objets de la base de
données et les TABLESPACES
ne peuvent être réalisés que par
un utilisateur privilégié.
SCHEMA
Cette variable permet de déterminer le schéma ou utilisateur Oracle
dont les objets ou données seront exportés. Le paramètre
ORACLE_USER
défini précédemment dans le fichier de
configuration doit avoir les droits nécessaires sur les objets de ce
schéma.
Par exemple, pour exporter les objets du schéma HR
de la
base de données de démonstration, la valeur de la directive doit
être :
SCHEMA HR
Si aucun schéma n’est précisé, les objets ou données de tous les
schémas de l’instance seront exportés hormis ceux définis dans le
paramètre SYSUSERS
.
SYSUSERS
Ce paramètre permet d’exclure, à l’origine, tous les utilisateurs système d’Oracle et leur schéma qui, parfois, contiennent des tables systèmes qui sont superflues pour une migration vers PostgreSQL.
À ce jour, les utilisateurs ignorés par Ora2Pg sont les suivants :
SYSTEM CTXSYS DBSNMP EXFSYS LBACSYS MDSYS MGMT_VIEW OLAPSYS ORDDATA OWBSYS
ORDPLUGINS ORDSYS OUTLN SI_INFORMTN_SCHEMA SYS SYSMAN WK_TEST WKSYS WKPROXY
WMSYS XDB APEX_PUBLIC_USER DIP FLOWS_020100 FLOWS_030000 FLOWS_040100
FLOWS_010600 FLOWS_FILES MDDATA ORACLE_OCM SPATIAL_CSW_ADMIN_USR
SPATIAL_WFS_ADMIN_USR XS$NULL PERFSTAT SQLTXPLAIN DMSYS TSMSYS WKSYS APEX_040000
APEX_040200 DVSYS OJVMSYS GSMADMIN_INTERNAL APPQOSSYS DVSYS DVF AUDSYS
APEX_030200 MGMT_VIEW ODM ODM_MTR TRACESRV MTMSYS OWBSYS_AUDIT WEBSYS WK_PROXY
OSE$HTTP$ADMIN AURORA$JIS$UTILITY$ AURORA$ORB$UNAUTHENTICATED DBMS_PRIVILEGE_CAPTURE CSMIG MGDSYS SDE DBSFWUSER
On peut utiliser cette fonctionnalité d’une manière détournée pour ignorer les objets appartenant à d’autres utilisateurs.
Tout utilisateur spécifié dans la clause SYSUSERS
sera
ignoré, en plus des utilisateurs ignorés par défaut (voir liste
ci-dessus).
Par exemple, si on veut ignorer les objets des utilisateurs
RECETTE
et DEV
, il est possible d’ajouter une
nouvelle ligne qui enrichira la liste des schémas à exclure :
SYSUSERS RECETTE,DEV
USER_GRANTS
Ce paramètre est par défaut à 0
car Ora2Pg part du
principe que l’on utilise un utilisateur privilégié (membre du groupe
DBA
, comme SYSTEM
) pour, par exemple, exporter
la définition des objets.
En effet, Ora2Pg utilise intensivement les vues de type
DBA_...
. Or, un utilisateur non privilégié n’a pas accès à
ces vues, réservées aux administrateurs de la base de données. On peut
alors configurer USER_GRANTS
à 1
pour utiliser
un utilisateur Oracle non DBA. Dans ce cas, Ora2Pg utilisera les vues de
type ALL_...
pour récupérer la définition des objets.
À noter, qu’alors, cela ne fonctionnera pas avec les types d’export
GRANT
et TABLESPACE
qui doivent impérativement
être réalisés par un utilisateur avec les privilèges DBA
.
L’analyse de requêtes applicatives dans la table
DBA_AUDIT_TRAIL
(export type QUERY
), nécessite
aussi ce privilège.
Dans la mesure où le fichier ora2pg.conf
va contenir des
informations sensibles, il est recommandé de prendre garde aux droits
qui sont associés à ce fichier et, si possible, de positionner des
droits à 0
pour tout utilisateur autre que le propriétaire
et le groupe associés au fichier :
$ chown 660 /etc/ora2pg/ora2pg.conf
Pour tester que les paramètres de connexion à l’instance Oracle sont les bons, on peut utiliser les actions de rapports simples d’Ora2Pg qui ne nécessitent que la configuration des variables de connexion.
Par exemple, pour l’instance d’exemple fournie par Oracle XE et le schéma HR, la commande :
ora2pg -t SHOW_SCHEMA
permettra de lister tous les schémas de l’instance Oracle pour
trouver la bonne valeur à donner à la directive SCHEMA
dans
le fichier de configuration.
La commande :
ora2pg -t SHOW_TABLE
donne la liste des tables qui seront exportées et le nombre d’enregistrements pour chaque table :
[1] TABLE COUNTRIES (owner: HR, 25 rows)
[2] TABLE DEPARTMENTS (owner: HR, 27 rows)
[3] TABLE EMPLOYEES (owner: HR, 107 rows)
[4] TABLE JOBS (owner: HR, 19 rows)
[5] TABLE JOB_HISTORY (owner: HR, 10 rows)
[6] TABLE LOCATIONS (owner: HR, 23 rows)
[7] TABLE REGIONS (owner: HR, 4 rows)
Si des tables sont non loguées (unlogged tables), correspondent à des tables externes ou sont partitionnées, Ora2Pg l’affichera à côté du nom de la table.
[19] UNLOGGED TABLE REGIONS (owner: HR, 4 rows)
[20] PARTITIONED TABLE SALES_PARTITIONED (owner: HR, 0 rows) - 2 partitions
L’utilisation de l’action SHOW_COLUMN
:
ora2pg -t SHOW_COLUMN -a COUNTRIES
renvoie le détail des colonnes de la table COUNTRIES
et
notamment les correspondances des types de colonnes qui seront utilisés
pour la migration :
[1] TABLE COUNTRIES (owner: HR, 25 rows)
COUNTRY_ID : CHAR(2) => char(2)
COUNTRY_NAME : VARCHAR2(40) => varchar(40)
REGION_ID : NUMBER(22) => bigint
S’il s’agit d’une table contenant des objets géométriques avec une contrainte sur le type d’objet, Ora2Pg donnera son équivalent PostGIS :
[1] TABLE TRAJETS (owner: HR, 1 rows)
MKT_ID : NUMBER(22) => bigint
NAME : VARCHAR2(32) => varchar(32)
START_POINT : SDO_GEOMETRY => geometry(POINT,4326)
FINISH_POINT : SDO_GEOMETRY => geometry(GEOMETRY,4326) - POINT,LINESTRING
SHOW_ENCODING
ora2pg -t SHOW_ENCODING -c ../ora2pg.conf
Ceci retournera les valeurs NLS_LANG
,
NLS_NCHAR
et CLIENT_ENCODING
, qui seront
utilisées par Ora2Pg, mais aussi l’encodage réel de la base Oracle et de
l’encodage correspondant dans PostgreSQL. Par exemple :
Current encoding settings that will be used by Ora2Pg:
Oracle NLS_LANG AMERICAN_AMERICA.AL32UTF8
Oracle NLS_NCHAR AL32UTF8
Oracle NLS_TIMESTAMP_FORMAT YYYY-MM-DD HH24:MI:SS.FF6
Oracle NLS_DATE_FORMAT YYYY-MM-DD HH24:MI:SS
PostgreSQL CLIENT_ENCODING UTF8
Perl output encoding ''
Showing current Oracle encoding and possible PostgreSQL client encoding:
Oracle NLS_LANG AMERICAN_AMERICA.AL32UTF8
Oracle NLS_NCHAR AL32UTF8
Oracle NLS_TIMESTAMP_FORMAT YYYY-MM-DD HH24:MI:SS.FF6
Oracle NLS_DATE_FORMAT YYYY-MM-DD HH24:MI:SS
PostgreSQL CLIENT_ENCODING UTF8
NLS_LANG et NLS_CHAR
Par défaut, Ora2Pg va utiliser l’encodage
AMERICAN_AMERICA.AL32UTF8
au niveau du client Oracle. Il
est toutefois possible de le changer et de forcer sa valeur avec la
variable de configuration NLS_LANG
. De même, la variable de
session NLS_NCHAR
a la valeur AL32UTF8
par
défaut.
Il est fortement conseillé de conserver le comportement par défaut
d’Ora2Pg pour éviter les erreurs liées à l’encodage, mais on peut le
changer si l’on veut éviter le coût de l’encodage ou qu’une table Oracle
ne respecte pas l’encodage lors de l’export des données. Dans ce cas, le
NLS_LANG
doit correspondre au paramétrage obtenu lorsqu’on
ouvre une session sur Oracle avec l’utilisateur Oracle spécifié dans la
configuration d’Ora2Pg. Pour cela, on se connecte à l’instance avec cet
utilisateur, et on peut lire le paramétrage NLS
(acronyme
de National Language Support) comme suit :
$ sqlplus hr/secret@xe
SQL> set pages 80;
SQL> select * from nls_session_parameters;
PARAMETER VALUE
------------------------------ ----------------------------------------
NLS_LANGUAGE FRENCH
NLS_TERRITORY FRANCE
NLS_CURRENCY €
NLS_ISO_CURRENCY FRANCE
NLS_NUMERIC_CHARACTERS ,
NLS_CALENDAR GREGORIAN
NLS_DATE_FORMAT DD/MM/RR
NLS_DATE_LANGUAGE FRENCH
NLS_SORT FRENCH
NLS_TIME_FORMAT HH24:MI:SSXFF
NLS_TIMESTAMP_FORMAT DD/MM/RR HH24:MI:SSXFF
NLS_TIME_TZ_FORMAT HH24:MI:SSXFF TZR
NLS_TIMESTAMP_TZ_FORMAT DD/MM/RR HH24:MI:SSXFF TZR
NLS_DUAL_CURRENCY €
NLS_COMP BINARY
NLS_LENGTH_SEMANTICS BYTE
NLS_NCHAR_CONV_EXCP FALSE
17 ligne(s) sélectionnée(s).
On peut aussi exécuter une requête pour récupérer le paramétrage de l’instance toute entière avec :
SELECT * FROM nls_instance_parameters ;
Ce paramétrage au niveau instance se modifie avec l’ordre
ALTER SYSTEM
, ainsi qu’au niveau de la base de
données :
SELECT * FROM nls_database_parameters;
Ce paramétrage au niveau base de données ne se modifie pas, il est
défini lors de la création de la base de données avec un
SET
.
CLIENT_ENCODING
Par défaut la valeur de cette directive est UTF8
, c’est
celle qui correspond à l’encodage unicode utilisé pour extraire les
données d’Oracle.
Si le NLS_LANG
a été modifié dans le fichier de
configuration et pour que la conversion des données en provenance
d’Oracle vers PostgreSQL soit exacte, il faut définir l’encodage à
utiliser par le client PostgreSQL. Ainsi, si la variable
NLS_LANG
côté connexion Oracle est
FRENCH_FRANCE.WE8ISO8859P1
, il faudra utiliser l’encodage
LATIN1
côté client PostgreSQL pour ne pas avoir de problème
de conversion d’encodage des données.
Pour vous aider à trouver le jeu de caractères dans PostgreSQL correspondant à celui sous Oracle, vous pouvez consulter ce document, 22.3. Character Set Support, qui fait partie de la documentation officielle de PostgreSQL.
BINMODE
Par défaut le paramètre est positionné à utf8
si
NLS_LANG
utilise un encodage unicode. Il n’est donc
normalement pas nécessaire de modifier cette variable de configuration.
Lors de l’utilisation d’un encodage unicode, il est indispensable de le
positionner à la valeur utf8
pour éviter les erreurs
d’écriture Perl de type Wide character in print
.
Le but est d’avoir un fichier de configuration générique qui sera
utilisé pour tous les types d’export et d’utiliser la souplesse des
options en ligne de commande du script ora2pg
.
On commande d’abord à Ora2Pg de créer des fichiers de sortie
différents pour les contraintes (FILE_PER_CONSTRAINT
), les
index (FILE_PER_INDEX
) et les clés étrangères
(FILE_PER_FKEY
). Cela nous permettra de ne les importer
qu’à la fin de la migration pour ne pas être gêné ou ralenti lors de
l’import de données.
On peut aussi générer un fichier différent par table
(FILE_PER_TABLE
) lors de l’export des données et par
routine (FILE_PER_FUNCTION
) pour permettre un traitement
individualisé.
La désactivation des triggers pour chaque table avant l’import des
données est réalisée, peu importe s’ils ont été importés auparavant ou
non. Cela évitera leur déclenchement s’ils ont été importés et n’aura
pas d’effet si ce n’est pas le cas, DISABLE_TRIGGERS
doit
donc être activé. Il est toutefois préférable de ne charger les triggers
qu’à la fin.
Les deux directives TRUNCATE_TABLE
et
DISABLE_SEQUENCE
permettent de déterminer le comportement
lors de l’export des données, à savoir respectivement l’ajout des ordres
SQL de troncature des tables avant le chargement des données et la
désactivation des ordres de réinitialisation des séquences après le
chargement, ces dernières n’étant importées qu’à la fin.
COMPILE_SCHEMA
permet de demander à Oracle de vérifier à
nouveau le code PL/SQL et de valider ce qui doit l’être. Par exemple, un
trigger a pu être ajouté et faire appel à une fonction avant qu’elle ne
soit créée, et sera dans ce cas marqué invalide par Oracle. L’activation
de cette variable permet de forcer Oracle à revalider le code. Par
défaut ce comportement n’est pas activé, le code valide seul sera
exporté.
La conversion automatique du code des routines stockées est
désactivée pour pouvoir obtenir les sources du code. On utilisera
l’option -p
lors de l’exécution d’ora2pg
afin
de l’activer.
Il faut ensuite se poser la question de savoir si l’on souhaite
recréer le schéma ou l’utilisateur Oracle sous lequel seront créés tous
les objets dans PostgreSQL. Si la réponse est oui, il faut activer la
directive EXPORT_SCHEMA
et désactiver la directive
CREATE_SCHEMA
car la création du schéma peut se faire de
manière manuelle lors de la création de la base de données et de son
propriétaire.
Le schéma utilisé pour définir le search_path
à la
création des objets sera celui donné comme valeur de la variable
SCHEMA
par défaut ou celui défini par la variable
PG_SCHEMA
si vous souhaitez changer de nom de schéma ou que
vous devez accéder à d’autres schémas lors de l’import des objets.
À ce stade, il est possible de ne plus toucher au fichier de
configuration en dehors de particularités de la base Oracle obligeant à
modifier certaines variables. Dans ce cas, il sera préférable de
travailler sur une copie du fichier ou d’utiliser la directive
INCLUDE
en fin de fichier de configuration.
Ora2pg considère toujours que vous utilisez la dernière version officielle de PostgreSQL disponible à la sortie de la version d’Ora2Pg que vous utilisez. Cependant il est possible que vous ayez besoin de migrer dans une base PostgreSQL d’une version antérieure, mais toutes les fonctionnalités supportées par Ora2Pg n’y existent pas forcément encore.
Pour pouvoir contrôler cela il est nécessaire de positionner la
directive PG_VERSION
à la dernière version majeure de
PostgreSQL. Ora2Pg adaptera l’export en fonction des fonctionnalités
développées dans chaque version.
D’autres directives permettent d’activer ou de désactiver certaines fonctionnalités :
BITMAP_AS_GIN
pour autoriser l’export des index bitmap
dans leur équivalent avec l’extension btree_gin
;STANDARD_CONFORMING_STRINGS
pour l’échappement dans les
chaines de caractères.La valeur de STANDARD_CONFORMING_STRINGS
doit
correspondre à la valeur de la variable
standard_conforming_string
dans le fichier
postgresql.conf
.
Par défaut donc, tous ces paramètres sont activés.
Les colonnes ayant pour type Oracle spatial
SDO_GEOMETRY
, peuvent contenir n’importe quel type de
géométrie. Le type équivalent pour PostGIS est
geometry
.
CREATE TABLE test_geom (
id bigint,
4326)
shape geometry(GEOMETRY, );
Dans ce cas, elles pourront aussi contenir n’importe quel type de géométrie.
Il peut être intéressant d’avoir une contrainte sur le type des géométries pouvant être insérées dans la colonne si c’est toujours le même type d’objet géométrique qui doit être utilisé.
Dans ce cas, en activant la directive
AUTODETECT_SPATIAL_TYPE
, Ora2Pg cherchera d’abord s’il
existe une contrainte géométrique sur la colonne pour déterminer le
type. S’il n’y a pas d’index de contrainte alors il cherchera dans la
colonne Oracle si les données sont toutes du même type. Dans ce dernier
cas, Ora2Pg prend comme échantillon les 50 000 premières géométries de
la colonne (ou la valeur de AUTODETECT_SPATIAL_TYPE
si elle
est supérieure à 1). Si les objets spatiaux de l’échantillon sont tous
du même type, alors la contrainte est appliquée.
CREATE TABLE test_geom (
id bigint,
4326)
shape geometry(POLYGON, );
Le système de référence spatial (SRID) utilisé va être la valeur
retournée depuis la table des métadonnées spatiales Oracle
(ALL_SDO_GEOM_METADATA
) ou, si la valeur retournée est
nulle, la valeur donnée à la directive de configuration
DEFAULT_SRID
. Voici à peu de chose près la requête
utilisée :
SELECT COALESCE(SRID, $DEFAULT_SRID)
FROM ALL_SDO_GEOM_METADATA
WHERE TABLE_NAME='$table' AND COLUMN_NAME='$colname';
Si la directive CONVERT_SRID
est activée alors la
conversion en ESPG est demandée et dans ce cas la requête utilisée par
Ora2Pg pour obtenir le SRID sera la suivante :
SELECT COALESCE(sdo_cs.map_oracle_srid_to_epsg(SRID), $DEFAULT_SRID)
FROM ALL_SDO_GEOM_METADATA
WHERE TABLE_NAME='$table' AND COLUMN_NAME='$colname';
Si l’extension PostGIS a été installée dans un schéma spécifique, les
appels aux fonctions de l’extension devront être préfixés par le nom du
schéma. Pour éviter cela, il est préférable de positionner le nom du
schéma PostGIS dans la directive POSTGIS_SCHEMA
et celui-ci
sera ajouté au search_path
lors de la création des
objets.
Pour l’export des géométries, il est préférable d’utiliser le type
INTERNAL
pour la directive
GEOMETRY_EXTRACT_TYPE
. Cela évite d’utiliser les fonctions
Oracle pour extraire la géométrie au format texte (WKT
) ou
binaire (WKB
). Ces modes nécessitent l’utilisation de
fonctions Oracle (SDO_UTIL.TO_WKTGEOMETRY()
) et
(SDO_UTIL.TO_WKBGEOMETRY()
) qui sont lentes et ont la
particularité de planter l’export dès que le volume est important.
Lors de l’export des LOB, si la directive NO_LOB_LOCATOR
est activée, il se peut que vous rencontriez l’erreur Oracle :
ORA-24345: A Truncation or null fetch error occurred
(DBD SUCCESS_WITH_INFO: OCIStmtFetch, LongReadLen too small and/or LongTruncOk not set)
La solution est d’augmenter la valeur du paramètre
LONGREADLEN
, par défaut 1 Mo, à la taille du plus grand
enregistrement de la colonne. Vous avez aussi la possibilité de tronquer
les données en activant LONGTRUNCOK
, ce qui ne remontera
plus d’erreur mais bien évidement tronquera certaines données dont la
taille dépasse la valeur de LONGREADLEN
.
Il est conseillé de laisser Ora2Pg gérer l’export des LOB en
utilisant des pointeurs sur les enregistrements (LOB Locator)
lui permettant de récupérer les données de ces champs en plusieurs fois.
Cela évite la contrainte de recherche de la bonne valeur à attribuer à
LONGREADLEN
.
Lors de l’export de champs LOB, il est important de diminuer très
fortement la valeur de DATA_LIMIT
en fonction de la vitesse
maximale d’export pour éviter les dépassements de mémoire. Pour
permettre à Ora2Pg d’extraire ces données avec les autres en adaptant
automatiquement le DATA_LIMIT
à une valeur plus faible
lorsqu’il s’agit d’un LOB, la directive BLOB_LIMIT
est
disponible.
BLOB_LIMIT 500
La valeur de 500, voire moins, n’est pas rare avec ce type d’objet.
Si cette directive n’est pas définie, par défaut, Ora2Pg est capable de
détecter qu’il s’agit d’une table avec un champ BLOB et de diminuer
automatiquement la valeur de DATA_LIMIT
en la divisant
par 10 jusqu’à ce qu’elle soit inférieure ou égale à 1000.
Une bonne pratique consiste donc à positionner une valeur à la
directive BLOB_LIMIT
pour forcer Ora2Pg à utiliser cette
valeur pour les tables avec BLOB et continuer à utiliser la valeur de
DATA_LIMIT
pour les tables sans BLOB.
Nous allons aborder ici les différentes étapes à réaliser pour mettre en œuvre de façon optimale l’export du schéma :
Il est important d’organiser l’espace de travail de son projet de migration. Sans cela, on se retrouve très vite avec une multitude de fichiers dont le contenu devient très vite énigmatique.
Dans la mesure où, par défaut, Ora2Pg fait tous ses exports dans un
même fichier nommé output.sql
, vous pouvez aussi très
facilement écraser le précédent export si vous omettez de renommer le
fichier.
À minima, il est conseillé d’avoir :
L’export du code source du code SQL et PL/SQL dans des fichiers dans un espace de stockage particulier est très important. Cela permet, lors de la phase de migration des routines stockées, de vérifier qu’Ora2Pg n’a pas corrompu du code et de comparer le code.
Pour créer une arborescence de travail destinée à recevoir les fichiers du projet de migration, on peut s’aider d’ora2pg en exécutant la commande suivante :
ora2pg --init_project mydb_project --project_base /opt/ora2pg
Voici l’arborescence générée par Ora2Pg :
/opt/ora2pg/mydb_project/
├── config
│ └── ora2pg.conf
├── data
├── export_schema.sh
├── import_all.sh
├── reports
├── schema
│ ├── dblinks
│ ├── directories
│ ├── functions
│ ├── grants
│ ├── mviews
│ ├── packages
│ ├── partitions
│ ├── procedures
│ ├── sequences
│ ├── synonyms
│ ├── tables
│ ├── tablespaces
│ ├── triggers
│ ├── types
│ └── views
└── sources
├── functions
├── mviews
├── packages
├── partitions
├── procedures
├── triggers
├── types └── views
La commande utilisée pour la génération automatique de l’espace de
travail a permis de générer un fichier de configuration générique
config/ora2pg.conf
et un script shell
export_schema.sh
. Ce script peut être utilisé pour générer
automatiquement tous les types d’export en dehors de l’export des
données. Voici son contenu :
#!/bin/sh
#-------------------------------------------------------------------------------
#
# Generated by Ora2Pg, the Oracle database Schema converter, version 23.2
#
#-------------------------------------------------------------------------------
EXPORT_TYPE="SEQUENCE TABLE PACKAGE VIEW GRANT TRIGGER FUNCTION PROCEDURE
TABLESPACE PARTITION TYPE MVIEW DBLINK SYNONYM DIRECTORY"
SOURCE_TYPE="PACKAGE VIEW TRIGGER FUNCTION PROCEDURE PARTITION TYPE MVIEW"
namespace="."
unit_cost=5
ora2pg -t SHOW_TABLE -c $namespace/config/ora2pg.conf > $namespace/reports/tables.txt
ora2pg -t SHOW_COLUMN -c $namespace/config/ora2pg.conf > $namespace/reports/columns.txt
ora2pg -t SHOW_REPORT -c $namespace/config/ora2pg.conf --dump_as_html \
--cost_unit_value $unit_cost --estimate_cost > $namespace/reports/report.html
for etype in $(echo $EXPORT_TYPE | tr " " "\n")
do
ltype=`echo $etype | tr '[:upper:]' '[:lower:]'`
ltype=`echo $ltype | sed 's/y$/ie/'`
echo "Running: ora2pg -p -t $etype -o $ltype.sql -b $namespace/schema/${ltype}s
-c $namespace/config/ora2pg.conf"
ora2pg -p -t $etype -o $ltype.sql -b $namespace/schema/${ltype}s \
-c $namespace/config/ora2pg.conf
ret=`grep "Nothing found" $namespace/schema/${ltype}s/$ltype.sql 2> /dev/null`
if [ ! -z "$ret" ]; then
rm $namespace/schema/${ltype}s/$ltype.sql
fi
done
for etype in $(echo $SOURCE_TYPE | tr " " "\n")
do
ltype=`echo $etype | tr '[:upper:]' '[:lower:]'`
ltype=`echo $ltype | sed 's/y$/ie/'`
echo "Running: ora2pg -t $etype -o $ltype.sql -b $namespace/sources/${ltype}s
-c $namespace/config/ora2pg.conf"
ora2pg -t $etype -o $ltype.sql -b $namespace/sources/${ltype}s \
-c $namespace/config/ora2pg.conf
ret=`grep "Nothing found" $namespace/sources/${ltype}s/$ltype.sql 2> /dev/null`
if [ ! -z "$ret" ]; then
rm $namespace/sources/${ltype}s/$ltype.sql
fi
done
echo
echo
echo "To extract data use the following command:"
echo
echo "ora2pg -t COPY -o data.sql -b $namespace/data -c $namespace/config/ora2pg.conf"
echo
exit 0
Une fois la connexion à la base Oracle paramétrée dans le fichier de configuration générique, il suffit d’exécuter ce script pour que tous les exports soient réalisés. Le script réalisera même le rapport sur la base au format HTML.
Ora2Pg aura aussi créé un script import_all.sh
utilisé
pour l’import dans PostgreSQL des divers objets exportés et disponibles
sous forme de fichiers dans l’espace de travail après exécution du
script export_schema.sh
. Si les données ont aussi été
exportées sous forme de fichiers dans l’espace de travail, le script
permet de les charger dans PostgreSQL, sinon il permettra de les charger
directement depuis Oracle en utilisant les options de parallélisme
d’Ora2Pg.
Pour les bases MySQL, il est nécessaire d’ajouter l’option
-m
ou --mysql
pour indiquer à Ora2Pg qu’il
s’agit d’un projet de migration de base MySQL.
Lors de la création par Ora2Pg du répertoire de travail, le fichier
de configuration générique est créé à partir du fichier
/etc/ora2pg/ora2pg.conf.dist
et enregistré dans le
répertoire mydb_project/config/
. Les modifications
appliquées à ce fichier sont celles exposées dans le chapitre
Configuration générique. Si le fichier n’existe pas, il suffit
de le copier et d’appliquer les préconisations de configuration.
On peut aussi demander à Ora2Pg d’utiliser un fichier de
configuration prédéfini en le précisant avec l’option
-c config_file
lors de l’exécution de la commande
ora2pg --init_project
, c’est alors ce fichier qui sera
copié dans l’espace de travail.
Les options de connexion à Oracle peuvent être données en ligne de
commande avec les options d’Ora2Pg dédiées à cet effet (-s
,
-u
et -n
). Les valeurs de ces paramètres
seront alors appliquées dans le fichier de configuration générique.
Ensuite, le comportement d’Ora2Pg sera déterminé par les options des lignes de commande utilisées.
Type d’export
L’option -t
permet de choisir le type d’action lors de
l’exécution du script plutôt que d’aller modifier le fichier de
configuration. Cette option peut prendre exactement les mêmes valeurs
que la variable TYPE
, à savoir :
TABLE
: Extrait l’ensemble des tables, avec leurs index
et leurs contraintes d’intégrité.VIEW
: Extrait les vues et leur définition
uniquement.GRANT
: Extrait les rôles compatibles avec PostgreSQL et
réaffecte les permissions aux différents objets de la base.SEQUENCE
: Extrait l’ensemble des séquences et leur
dernière valeur connue.TABLESPACE
: Extrait les noms de tablespaces pour le
stockage des tables et des index.TRIGGER
: Extrait la définition des triggers.FUNCTION
: Extrait les fonctions.PROCEDURE
: Extrait les procédures.PACKAGE
: Extrait les paquets et leur définition
(package bodies).INSERT
: Extrait les données sous forme de requêtes
INSERT
.COPY
: Extrait les données sous forme d’instruction
COPY
.PARTITION
: Extrait les partitions de type
RANGE
et LIST
, ainsi que les
sous-partitions.TYPE
: Extrait les types définis par l’utilisateur.FDW
: Exporte les tables sous forme de tables externes
avec oracle_fdw
.MVIEW
: Exporte les vues matérialisées.QUERY
: Tente de convertir automatiquement les requêtes
SQL présents dans les tables d’audit d’Oracle
(DBA_AUDIT_TRAIL
).KETTLE
: Génére les fichiers modèles XML utilisés par
Kettle, un ETL qui dispose d’une version communautaire et dont le nom
moderne est Pentaho Data Integration (PDI). Cet export nécessite que les
chaînes de connexions Oracle et PostgreSQL soient définies (DSN).DBLINK
: Génére la définition d’un objet serveur
reposant sur l’extension oracle_fdw
pour émuler un DBLink
Oracle.SYNONYM
: Exporte les synonymes sous la forme de vues
dans un autre schéma.DIRECTORY
: Exporte la définition des
directories Oracle en s’appuyant sur l’extension
external_file
.LOAD
: Distribue une liste de requêtes à travers
plusieurs connexions à l’instance PostgreSQL.TEST
: Réalise une analyse des différences entre les
bases Oracle et PostgreSQL à l’issue de la migration.TEST_COUNT
: Réalise un décompte des lignes entre les
bases Oracle et PostgreSQL à l’issue de la copie des données.TEST_VIEW
: Réalise le décompte des lignes retournées
par les vues en les bases Oracle et PostgreSQL.TEST_DATA
: Vérifie une à une les valeurs retournées par
les deux systèmes.SEQUENCE_VALUES
: Exporte les instructions de mise à
jour des séquences à leur dernière value connue.SHOW_VERSION
: Affiche la version de la base
Oracle.SHOW_SCHEMA
: Affiche la liste des schémas disponibles
depuis la base Oracle.SHOW_TABLE
: Affiche la liste des tables
disponibles.SHOW_COLUMN
: Affiche la liste des colonnes de tables
disponible ainsi que les transformations qui seront réalisées par Ora2Pg
lors de la conversion automatique. Remonte un avertissement si un mot
réservé dans PostgreSQL est présent dans le nom des objets Oracle.SHOW_ENCODING
: Affiche les valeurs
NLS_LANG
et CLIENT_ENCODING
qu’Ora2Pg prévoit
d’utiliser ainsi que l’encodage de la base Oracle avec les
correspondances possibles avec une connexion client PostgreSQL.SHOW_REPORT
: Retourne un rapport détaillé du contenu
de la base Oracle.L’auteur d’Ora2Pg a présenté les différents types de test lors de sa conférence « La validation de migration facilitée par Ora2Pg », à la PostgreSQL Session 14 qui s’est tenue à Paris le 17 novembre 2021.
Répertoire de stockage des fichiers
L’option -b
va permettre d’utiliser l’arborescence de
l’espace de travail créé auparavant pour stocker les fichiers générés
dans leur espace de stockage respectif. Elle correspond à la variable
OUTPUT_DIR
du fichier de configuration.
Nom du fichier de sortie
Le nom des fichiers de sortie est défini à partir de l’option
-o
correspondant à la directive OUTPUT
.
Conversion automatique du code
L’option -p
est utilisée pour provoquer la conversion
automatique du code SQL et PL/SQL.
Avec l’activation des directives FILE_PER_INDEX
,
FILE_PER_CONSTRAINT
et FILE_PER_FKEYS
, la
commande d’extraction des définitions de tables, contraintes et index va
créer quatre fichiers dans le répertoire de sortie
schema/tables
:
table.sql
CONSTRAINTS_table.sql
INDEXES_table.sql
FKEYS_table.sql
Le premier utilise le nom donné par l’option -o
et
contient les ordres CREATE TABLE ...
. Le second utilise
aussi le nom donné dans l’option -o
mais préfixé par le mot
CONSTRAINT_
et, pour cause, il contient tous les ordres de
création des contraintes :
ALTER TABLE "..." ADD CONSTRAINT ...
.
Le troisième fichier contient toutes les commandes de création des
index (CREATE INDEX ...
) définies dans Oracle à l’exception
des index implicites sur les clés primaires que PostgreSQL génère
automatiquement et qui n’ont donc pas besoin d’être exportées.
Le quatrième contient les ordres de création des clés étrangères pour pouvoir être créées facilement après la migration des données.
L’option de conversion de code -p
est utilisée ici
uniquement pour les index ou contraintes CHECK
qui peuvent
utiliser des fonctions à convertir.
Les séquences sont, quant à elles, exportées dans le sous-répertoire
schema/sequences
et le fichier sequences.sql
contenant les ordres SQL CREATE SEQUENCE ...
. Comme les
contraintes, les séquences ne doivent être importées qu’à la fin de la
migration. Les séquences seront créées avec la bonne valeur de départ
après import des données.
Par défaut Ora2Pg supprime toutes les informations sur les
tablespaces associés aux objets exportés de la base Oracle. Si vous
souhaitez préserver ces informations, notamment pour utiliser des
tablespaces différents pour les tables et les index, la directive de
configuration USE_TABLESPACE
doit être activée. Les
tablespaces par défaut d’Oracle (TEMP
, USERS
et SYSTEM
) ne sont pas pris en compte.
REPLACE_TABLES et REPLACE_COLS
Il peut être nécessaire de renommer une table en particulier durant
la migration. La directive REPLACE_TABLES
autorise de
lister sur une ou plusieurs lignes les tables à transformer.
REPLACE_TABLES ORIG_TB_NAME1:NEW_TB_NAME1 REPLACE_TABLES ORIG_TB_NAME2:NEW_TB_NAME2
L’un des cas d’usages principaux est l’utilisation d’un mot-clé
réservé avec PostgreSQL, comme windows
ou
array
, qui sont acceptés comme noms de tables dans Oracle
mais sont interdits avec PostgreSQL. La requête suivante permet de
connaître les mots strictement réservés.
select word from pg_get_keywords() where catcode = 'R';
Dans le même ordre d’idée, la direction REPLACE_COLS
permet de définir les renommages pour les colonnes d’une ou de plusieurs
tables.
INDEXES_SUFFIX et INDEXES_RENAMING
Avec Oracle, les espaces de noms entre les tables et les index sont
distincts, cela signifie qu’il est possible qu’une table et un index
puissent avoir le même nom. Cette situation n’est pas supportée dans
PostgreSQL et Ora2Pg propose de suffixer l’ensemble des index à migrer,
à l’aide de la directive INDEXES_SUFFIX
. Par défaut, ce
comportement est désactivé.
INDEXES_SUFFIX _idx
Si les noms des index importent peu dans la gestion quotidienne du
schéma, il est également possible d’activer le changement automatique
des noms des index, en s’inspirant du nommage proposé nativement par
PostgreSQL, à savoir tablename_columns_names
.
INDEXES_RENAMING 1
DATA_TYPE et MODIFY_TYPE
Par défaut, Ora2Pg transpose automatiquement les types Oracle en
équivalents PostgreSQL. Cependant, certains typages peuvent provoquer
des comportements anormaux dans la base de données migrées, notamment
les erreurs de précisions et d’arrondis sur les types numériques, ou
l’absence de fuseau horaire dans le type
timestamp without timezone
.
Par exemple, la table employees
présente une date et des
champs décimaux avec des définitions variées.
SQL> DESC employees;
Name Null? Type
--------------------- -------- -----------------
EMPLOYEE_ID NOT NULL NUMBER(6)
FIRST_NAME VARCHAR2(20)
LAST_NAME NOT NULL VARCHAR2(25)
EMAIL NOT NULL VARCHAR2(25)
PHONE_NUMBER VARCHAR2(20)
HIRE_DATE NOT NULL DATE
JOB_ID NOT NULL VARCHAR2(10)
SALARY NUMBER(8,2)
COMMISSION_PCT NUMBER(2,2)
MANAGER_ID NUMBER(6) DEPARTMENT_ID NUMBER(4)
Les champs salary
, commission_pct
et
department_id
seront respectivement convertis par Ora2Pg en
double precision
, real
et
smallint
, afin d’optimiser au mieux le stockage des valeurs
numériques.
CREATE TABLE employees (
integer NOT NULL,
employee_id varchar(20),
first_name varchar(25) NOT NULL,
last_name varchar(25) NOT NULL,
email varchar(20),
phone_number timestamp NOT NULL,
hire_date varchar(10) NOT NULL,
job_id double precision,
salary real,
commission_pct integer,
manager_id smallint
department_id );
Pour assurer le respect des données, il peut être judicieux
d’enrichir la directive DATA_TYPE
pour transformer les
types NUMBER
ou DATE
dans un type
équivalent.
DATA_TYPE NUMBER(*\,2):decimal,DATE:timestamptz
CREATE TABLE employees (
integer NOT NULL,
employee_id varchar(20),
first_name varchar(25) NOT NULL,
last_name varchar(25) NOT NULL,
email varchar(20),
phone_number NOT NULL,
hire_date timestamptz varchar(10) NOT NULL,
job_id decimal,
salary decimal,
commission_pct integer,
manager_id smallint
department_id );
La directive MODIFY_TYPE
est similaire mais permet de
préciser colonne par colonne les différentes transformations à opérer.
Par exemple, pour la table employees
exclusivement, la
configuration sera la suivante :
MODIFY_TYPE employees:hire_date:timestamptz
MODIFY_TYPE employees:salary:decimal MODIFY_TYPE employees:commission_pct:decimal
REPLACE_AS_BOOLEAN et BOOLEAN_VALUES
Puisqu’Oracle ne dispose pas d’un type boolean
, il est
possible d’instruire Ora2Pg pour qu’il réalise les conversions vers une
colonne de type bool
en assurant la correspondance des
valeurs.
REPLACE_AS_BOOLEAN TABLE1:COL1 TABLE2:COL1
Par défaut, les traductions d’une donnée Oracle vers un booléen
PostgreSQL est assurée par la directive BOOLEAN_VALUES
,
qu’il est possible d’étendre selon les jeux de données à migrer.
BOOLEAN_VALUES yes:no y:n 1:0 true:false enabled:disabled
Le premier export (type GRANT
) va exporter tous les
rôles et leurs droits sur les objets sous forme d’ordres SQL
CREATE ROLE ...
et GRANT ... ON ...
dans le
fichier schema/users/users.sql
.
Le deuxième provoque la génération des ordres de création des espaces
de stockage des tables ou index, CREATE TABLESPACE ...
et
les ordres de déplacement des objets dans ces espaces,
ALTER ... SET TABLESPACE ...
. Les définitions sont
enregistrées dans le fichier
schema/tablespaces/tablespaces.sql
. Si la directive
FILE_PER_INDEX
est activée alors les ordres concernant les
index le seront dans un fichier séparé
schema/tablespaces/INDEXES_tablespaces.sql
.
Le troisième type d’export va exporter tous les types définis par les
utilisateurs (CREATE TYPE ...
) dans le fichier
schema/types/types.sql
. La conversion de certains types
utilisateurs Oracle nécessite une réécriture manuelle pour être
compatible avec PostgreSQL. Ce sont les types définis par
CREATE TYPE ... AS TABLE OF ...
qui nécessitent l’écriture
de fonctions définissant le comportement du type lors de la lecture et
de l’écriture dans ce type. Il en va de même avec les types objets
(CREATE TYPE ... AS OBJECT ... TYPE BODY
). Les fonctions
doivent être converties à la syntaxe PostgreSQL. Cette conversion est
réalisée grâce à l’emploi de l’option -p
(équivalent à
l’activation de la variable PLSQL_PGSQL
).
L’étape suivante de la migration du schéma consiste à exporter tous
les autres types d’objets : les vues, les triggers, les fonctions et
procédures stockées (les routines). Tous ces types d’export nécessitent
l’emploi de l’option -p
pour provoquer la conversion
automatique du code SQL et PL/SQL.
L’import de ce type d’objet sera évoqué en détail dans le chapitre dédié à la migration du code PL/SQL.
Dans la mesure où la conversion du code SQL et PL/SQL n’est pas complète, voire imparfaite, il est recommandé d’extraire le code brut pour pouvoir le comparer avec le code converti par Ora2Pg en cas de problème.
L’extraction du code brut d’Oracle se fait en n’utilisant pas
l’option -p
lors de l’exécution du script et en désactivant
l’option PLSQL_PGSQL
dans le fichier de configuration.
Depuis PostgreSQL v10, il est possible de déclarer une table comme étant partitionnée et de déclarer des partitions. La spécification d’une table partitionnée consiste en une méthode de partitionnement et une liste de colonnes ou expressions à utiliser comme la clé de partitionnement.
Toutes les lignes insérées dans la table partitionnée seront alors
redirigées vers une des partitions en se basant sur la valeur de la clé
de partitionnement. Les méthodes de partitionnement supportées par
Ora2Pg sont le partitionnement par intervalles (RANGE
), par
liste (LIST
) et par hachage (HASH
).
Les partitions peuvent elles-mêmes être définies comme des tables partitionnées, en utilisant le sous-partitionnement. Les partitions peuvent avoir leurs propres index, contraintes et valeurs par défaut, différents de ceux des autres partitions.
Le paramètre DISABLE_PARTITION
permet de ne pas
reprendre le partitionnement d’un table alors que le paramètre
PG_SUPPORTS_PARTITION
désactive la conversion en
partitionnement déclaratif au profit du partitionnement par héritage,
soit l’ancien comportement avant PostgreSQL v10.
Voici deux exemples de conversion avec le partitionnement déclaratif réalisées avec Ora2Pg :
CREATE TABLE sales_range
(NUMBER(5),
salesman_id VARCHAR2(30),
salesman_name NUMBER(10),
sales_amount DATE
sales_date
)PARTITION BY RANGE(sales_date)
(PARTITION sales_jan2000 VALUES LESS THAN(TO_DATE('02/01/2000','DD/MM/YYYY')),
PARTITION sales_feb2000 VALUES LESS THAN(TO_DATE('03/01/2000','DD/MM/YYYY')),
);
Deviendra :
CREATE TABLE sales_range
(integer,
salesman_id varchar(30),
salesman_name
sales_amount bigint,timestamp
sales_date PARTITION BY RANGE (sales_date);
)
CREATE TABLE sales_jan2000 PARTITION OF sales_range
FOR VALUES FROM ('2000-01-01') TO ('2000-01-02');
CREATE TABLE sales_feb2000 PARTITION OF sales_range
FOR VALUES FROM ('2000-01-02') TO ('2000-01-03');
CREATE TABLE sales_list
(NUMBER(5),
salesman_id VARCHAR2(30),
salesman_name VARCHAR2(20),
sales_state NUMBER(10),
sales_amount DATE
sales_date
)PARTITION BY LIST(sales_state)
(PARTITION sales_west VALUES('California', 'Hawaii'),
PARTITION sales_east VALUES ('New York', 'Virginia', 'Florida'),
PARTITION sales_other VALUES (DEFAULT)
);
Deviendra :
CREATE TABLE sales_list
(integer,
salesman_id varchar(30),
salesman_name
sales_amount bigint,timestamp
sales_date PARTITION BY LIST (sales_state)
)
CREATE TABLE sales_west PARTITION OF sales_list
FOR VALUES IN ('California', 'Hawaii');
CREATE TABLE sales_east PARTITION OF sales_list
FOR VALUES IN ('New York', 'Virginia', 'Florida');
CREATE TABLE sales_other PARTITION OF sales_list
FOR VALUES DEFAULT;
);
Le but d’une vue matérialisée est de stocker physiquement le résultat de l’exécution d’une vue et d’utiliser par la suite ce stockage plutôt que le résultat de l’exécution de la requête. Il est possible de créer des index sur cette vue matérialisée. Elle est mise à jour soit à la demande soit au fil de l’eau.
Les vues matérialisées ne sont supportées qu’à partir de la version
9.3 pour PostgreSQL. Elles ne supportent pas toutes les fonctionnalités
qu’offre Oracle : pas de mise à jour au fil de l’eau, pas de
rafraîchissement incrémental à l’aide de journaux de vue matérialisée
(MATERIALIZED VIEW LOG
sous Oracle), pas de réécriture de
requête (query rewrite).
CREATE MATERIALIZED VIEW emp_data_mview AS
SELECT EMPLOYEES.EMPLOYEE_ID EMPLOYEE_ID,EMPLOYEES.FIRST_NAME FIRST_NAME,
EMPLOYEES.LAST_NAME LAST_NAME, EMPLOYEES.EMAIL
EMAIL,EMPLOYEES.PHONE_NUMBER PHONE_NUMBER,EMPLOYEES.HIRE_DATE
HIRE_DATE,EMPLOYEES.JOB_ID JOB_ID, EMPLOYEES.SALARY
SALARY,EMPLOYEES.COMMISSION_PCT COMMISSION_PCT,EMPLOYEES.MANAGER_ID
MANAGER_ID, EMPLOYEES.DEPARTMENT_ID DEPARTMENT_IDFROM EMPLOYEES EMPLOYEES;
et pour le rafraîchissement, il suffira d’utiliser la commande SQL :
REFRESH MATERIALIZED VIEW emp_data_mview;
Il est possible de lever le verrou exclusif de l’opération de
rafraîchissement à l’aide de l’option CONCURRENTLY
. Pour ce
faire, un index unique est requis sur l’une des colonnes de la vue
matérialisée qui respecte la contrainte d’unicité.
CREATE UNIQUE INDEX ON emp_data_mview(employee_id);
REFRESH MATERIALIZED VIEW CONCURRENTLY emp_data_mview;
Certaines fonctionnalités que propose Oracle (ex :
FAST REFRESH
à l’aide des
MATERIALIZED VIEW LOG
) ne sont pas encore présentes dans
les versions actuelles de PostgreSQL. Si une mise à jour au fil de l’eau
est requise, il faudra forcément passer par des triggers.
CREATE FUNCTION fct_refresh_emp_data_mview()
trigger LANGUAGE plpgsql
RETURNS AS $$
BEGIN
REFRESH MATERIALIZED VIEW CONCURRENTLY emp_data_mview;
RETURN new;
END
$$;
CREATE TRIGGER trg_emp_data_mview_on_insert
AFTER INSERT ON employees FOR EACH ROW
EXECUTE PROCEDURE fct_refresh_emp_data_mview();
Pour aller plus loin :
Un synonyme n’est ni plus ni moins qu’un alias vers un objet d’une base de données Oracle. Ils sont utilisés pour donner les droits d’accès à un objet dans un autre schéma ou dans une base distante auquel l’utilisateur n’aurait normalement pas accès.
Voici la syntaxe de création d’un synonyme sous Oracle :
CREATE SYNONYM synonym_name FOR object_name [@ dblink];
Les synonymes n’existent pas sous PostgreSQL, il y a deux méthodes pour les émuler.
Modification du search_path
L’objet est naturellement caché à l’utilisateur car il n’appartient
pas à un schéma de son search_path
par défaut et lorsqu’on
veut qu’il y ait accès, on modifie le search_path
. Par
exemple :
SET search_path TO other_schema,...;
Cette méthode peut s’avérer assez fastidieuse à mettre en place au niveau applicatif mais évite la création de vues.
Utilisation de vues
L’autre méthode consiste donc à utiliser des vues. C’est ce que générera Ora2Pg lors de l’export des synonymes.
ora2pg -t SYNONYM -o synonyms.sql -b schema/synonyms -c config/ora2pg.conf
Par exemple, un synonyme créé sous Oracle avec l’ordre :
CREATE SYNONYM emp_table FOR hr.employees;
sera exporté par Ora2Pg de la façon suivante :
CREATE VIEW public.emp_table AS SELECT * FROM hr.employees;
ALTER VIEW public.emp_table OWNER TO hr;
GRANT ALL ON public.emp_table TO PUBLIC;
La vue public.emp_table
étant la propriété de
l’utilisateur HR
, elle permet la consultation de la table
dans le schéma HR
.
Si le synonyme pointe sur une table distante par un dblink, Ora2Pg créera la vue telle que précédemment mais ajoutera un message en commentaire pour signifier que la table distante doit être créée via un Foreign Data Wrapper ou un dblink. Par exemple :
-- You need to create foreign table hr.employees using foreign server:
-- oradblink1 (see DBLINK and FDW export type)
CREATE VIEW public.emp_table AS SELECT * FROM hr.employees;
ALTER VIEW public.emp_table OWNER TO hr;
GRANT ALL ON public.emp_table TO PUBLIC;
Les DIRECTORY
et tables externes n’existent pas dans
PostgreSQL tels que définis dans Oracle. Il est possible d’émuler les
accès à des tables externes en utilisant le Foreign Data
Wrapper file_fdw
mais uniquement en lecture. Ces
tables doivent respecter le format CSV de COPY
. Ora2Pg
exporte par défaut toute table externe en une table distante basée sur
l’extension file_fdw
. Si vous voulez exporter ces tables
comme des tables normales, il suffit de désactiver la directive de
configuration EXTERNAL_TO_FDW
en lui donnant la valeur
0
.
Voici un exemple de table externe sous Oracle :
CREATE OR REPLACE DIRECTORY ext_directory AS '/tmp/';
CREATE TABLE ext_table (
id NUMBER(6),
VARCHAR2(20),
nom VARCHAR2(20),
prenom CHAR(1))
activite ORGANIZATION EXTERNAL (
TYPE oracle_loader
DEFAULT DIRECTORY ext_directory
ACCESS PARAMETERS (
BY NEWLINE
RECORDS DELIMITED BY ','
FIELDS TERMINATED VALUES ARE NULL
MISSING FIELD ROWS WITH ALL NULL FIELDS
REJECT id, nom, prenom, activite))
('person.dat')
LOCATION (
)PARALLEL
LIMIT 0
REJECT NOMONITORING;
Ora2Pg convertit le DIRECTORY
en serveur FDW en
utilisant l’extension file_fdw
.
CREATE EXTENSION file_fdw;
CREATE SERVER ext_directory FOREIGN DATA WRAPPER file_fdw;
Puis, il crée la table comme une table distante rattachée au serveur préalablement défini.
CREATE FOREIGN TABLE ext_table (
id integer,
varchar(20),
nom varchar(20),
prenom char(1)
activite '/tmp/person.dat',
) SERVER ext_directory OPTIONS(filename 'csv',
format ','); delimiter
Les DATABASE LINK
sont des objets Oracle permettant
l’accès à des objets de bases de données distantes. Ils sont créés de la
manière suivante :
CREATE PUBLIC DATABASE LINK remote_service_name CONNECT TO scott
IDENTIFIED BY tiger USING 'remote_db_name';
et s’utilisent ensuite de la façon suivante :
SELECT * FROM employees@remote_service_name;
Ce type d’objet n’existe pas nativement dans PostgreSQL et nécessite l’utilisation d’une extension Foreign Data Wrapper en fonction du type du SGBD distant.
Ora2Pg exportera ces DATABASE LINK
comme des bases
Oracle distantes en utilisant l’extension Foreign Data Wrapper
oracle_fdw
par défaut. Il est tout à fait possible de
changer l’extension si la base distante est une base PostgreSQL. Voici
un exemple d’export par Ora2Pg :
CREATE SERVER remote_service_name FOREIGN DATA WRAPPER oracle_fdw
'remote_db_name');
OPTIONS (dbserver
CREATE USER MAPPING FOR current_user SERVER remote_service_name
user 'scott', password 'tiger'); OPTIONS (
Pour que le lien vers la base distante puisse être utilisé, il est nécessaire de créer les tables distantes dans la base locale :
ora2pg -c ora2pg.conf -t FDW -a EMPLOYEES
et le résultat de la commande ora2pg :
CREATE FOREIGN TABLE employees_fdw (...) SERVER remote_service_name
schema 'HR', table 'EMPLOYEES'); OPTIONS (
Maintenant la table peut être utilisée directement au niveau SQL comme s’il s’agissait d’une table locale :
SELECT * FROM employees_fdw;
Cela fonctionne en lecture et écriture depuis PostgreSQL 9.3. Le
Foreign Data Wrapper oracle_fdw
peut être obtenu
sur le site des extensions PostgreSQL pgxn.org
Le type BFILE
permet de stocker des données non
structurées dans des fichiers externes en dehors de la base de données
(fichiers image, documents pdf, etc.). Le type DIRECTORY
permet lui de définir des chemins sur le système de fichier qui pourront
être utilisés pour le stockage de ces données externes.
Il n’existe pas de types équivalents natifs sous PostgreSQL.
Un BFILE
est une colonne qui stocke un nom de fichier
qui pointe vers un fichier externe contenant les données et le nom de
l’identifiant du répertoire base dans lequel ce fichier est stocké :
(DIRECTORY, FILENAME)
Par défaut Ora2Pg transforme le type BFILE
en type
bytea
en chargeant le contenu du fichier directement en
base sous forme d’objet binaire.
CREATE TABLE bfile_test (id bigint, bfilecol bytea);
COPY bfile_test (id,bfilecol) FROM STDIN;
1
1234,ALBERT,GRANT,21\\0121235,ALFRED,BLUEOS,26\\0121236,BERNY,JOL
34\\012
YSE, \.
Il est possible de demander à Ora2Pg de ne pas importer les données
dans le champ cible, mais seulement le chemin complet (répertoire base +
nom de fichier) vers le fichier. Ceci se fait en modifiant le type
PostgreSQL associé au type Oracle dans la directive de configuration
DATA_TYPE
: ...,BFILE:TEXT,...
Il existe aussi une extension PostgreSQL nommée external_file qui
permet d’émuler les DIRECTORY
et BFILE
d’Oracle. Si le type PostgreSQL associé au type Oracle dans la directive
de configuration DATA_TYPE
est positionné à
EFILE
(...,BFILE:EFILE,...
), Ora2Pg fera les
conversions nécessaires pour utiliser ce type.
Voici ce que Ora2Pg générera comme ordre SQL lorsque qu’un champ de
type BFILE
doit être converti en type
EFILE
:
INSERT INTO external_file.directories (directory_name, directory_path)
VALUES ('EXT_DIR', '/data/ext/');
INSERT INTO external_file.directory_roles (directory_name, directory_role,
VALUES ('EXT_DIR', 'hr', true, false);
directory_read, directory_write) INSERT INTO external_file.directories (directory_name, directory_path)
VALUES ('SCOTT_DIR', '/usr/home/scott/');
INSERT INTO external_file.directory_roles(directory_name, directory_role,
VALUES ('SCOTT_DIR', 'hr', true, true); directory_read, directory_write)
L’objet DIRECTORY
est défini dans la table
external_file.directories
créée par l’extension et les
privilèges d’accès à ces répertoires stockés dans une autre table,
external_file.directory_roles
.
Le type EFILE
contient lui exactement la même chose que
le type BFILE
, à savoir
(directory_name, file_name)
.
L’extension pg_trgm
apporte des classes d’opérateur pour
les index GiST et GIN permettant de créer un index sur une colonne texte
pour les recherches rapides par similarités. Ces index permettent
notamment la recherche par trigrammes pour les requêtes à base de
LIKE
, ILIKE
, ~
et
~*
.
Exemple :
CREATE TABLE test_trgm (t text);
CREATE INDEX trgm_idx ON test_trgm USING GIN (t gin_trgm_ops);
SELECT * FROM test_trgm WHERE t LIKE '%foo%bar';
SELECT * FROM test_trgm WHERE t ~ '(foo|bar)';
Ce type d’index peut correspondre aux index Oracle CTXCAT indexant
des textes de petites tailles. Il faut toutefois réécrire les requêtes
utilisant l’opérateur CATSEARCH en requêtes utilisant LIKE
ou ILIKE
.
L’indexation FTS est un des cas les plus fréquents d’utilisation non-relationnelle d’une base de données : les utilisateurs ont souvent besoin de pouvoir rechercher une information qu’ils ne connaissent pas parfaitement, d’une façon floue :
PostgreSQL doit donc permettre de rechercher de façon efficace dans un champ texte. L’avantage de cette solution est d’être intégrée au SGBD. Le moteur de recherche est donc toujours parfaitement à jour avec le contenu de la base, puisqu’il est intégré avec le reste des transactions.
Voici un exemple succinct de mise en place de FTS :
CREATE TEXT SEARCH CONFIGURATION depeches (COPY= french);
ALTER TEXT SEARCH CONFIGURATION depeches ALTER MAPPING
FOR hword, hword_part, word WITH unaccent,french_stem;
depeches
,
afin de maximiser les performances de recherche :ALTER TABLE depeche ADD vect_depeche tsvector;
depeche
:UPDATE depeche set vect_depeche = (setweight(
'depeches',coalesce(titre,'')), 'A'
to_tsvector(|| setweight(
) 'depeches',coalesce(texte,'')), 'C')
to_tsvector( );
CREATE FUNCTION to_vectdepeche( )
trigger
RETURNS
LANGUAGE plpgsql-- common options: IMMUTABLE STABLE STRICT SECURITY DEFINER
AS $function$
BEGIN
NEW.vect_depeche := setweight(to_tsvector('depeches',coalesce(NEW.titre,''))
'A') ||
, 'depeches',coalesce(NEW.texte,''))
setweight(to_tsvector('C');
, return NEW;
END
$function$ ;
Le rôle de cette fonction est d’automatiquement mettre à jour le
champ vect_depeche
par rapport à ce qui aura été modifié
dans l’enregistrement. On donne aussi des poids différents aux zones
titre
et texte
du document, pour qu’on puisse
éventuellement utiliser cette information pour trier les enregistrements
par pertinence lors des interrogations.
CREATE TRIGGER trg_depeche before INSERT OR update ON depeche
FOR EACH ROW EXECUTE PROCEDURE to_vectdepeche();
Et ce trigger appelle la fonction définie précédemment à chaque insertion ou modification d’enregistrement dans la table.
NB : à partir de la v12, une colonne générée est préférable à l’alimentation par trigger.
CREATE INDEX idx_gin_texte ON depeche USING gin(vect_depeche);
L’index permet bien sûr une recherche plus rapide.
ANALYZE depeche ;
SELECT titre,texte FROM depeche
WHERE vect_depeche @@ to_tsquery('depeches','varicelle');
SELECT titre,texte FROM depeche
WHERE vect_depeche @@ to_tsquery('depeches','varicelle & médecin');
La recherche plein texte PostgreSQL consiste en la mise en relation entre un vecteur (la représentation normalisée du texte à indexer) et d’une tsquery, c’est-à-dire une chaîne représentant la recherche à effectuer. Ici par exemple, la première requête recherche tous les articles mentionnant « varicelle », la seconde tous ceux parlant de « varicelle » et de « médecin ». Nous obtiendrons bien sûr aussi les articles parlant de médecine, « médecine » ayant le même radical que « médecin » et étant donc automatiquement classé comme faisant partie de la même famille.
La recherche propose bien sûr d’autres opérateurs que
&
: |
pour « ou », !
pour
« non ». On peut effectuer des recherches de radicaux, etc. L’ensemble
des opérations possibles est détaillée ici : https://docs.postgresql.fr/current/textsearch-controls.html.
On peut trier par pertinence :
SELECT titre,texte
FROM depeche
WHERE vect_depeche @@ to_tsquery('depeches','varicelle & médecin')
ORDER BY ts_rank_cd(vect_depeche, to_tsquery('depeches','varicelle & médecin'));
Ou, écrit autrement (pour éviter d’écrire deux fois
to_tsquery
) :
SELECT titre,ts_rank_cd(vect_depeche,query) AS rank
FROM depeche, to_tsquery('depeches','varicelle & médecin') query
WHERE query@@vect_depeche
ORDER BY rank DESC
Ce type d’indexation plein texte correspond à la recherche de texte
Oracle basée sur des index de type CONTEXT. Il sera aussi nécessaire de
réécrire les requêtes Oracle utilisant l’opérateur CONTAINS
avec l’operateur @@
de PostgreSQL.
La première chose à faire avant de commencer à migrer réellement la base Oracle dans une base PostgreSQL est de créer le propriétaire de la base de données, toutes les opérations se feront ensuite sous cet utilisateur. Voici comment créer le propriétaire de la base :
$ createuser --no-superuser --no-createrole --no-createdb myuser
On procède ensuite à la création de la base elle-même :
$ createdb -E UTF-8 --owner myuser mydb
Si vous avez décidé d’exporter le schéma Oracle avec la variable
EXPORT_SCHEMA
activée, il faut créer le schéma sous
PostgreSQL :
$ psql -U myuser mydb -c "CREATE SCHEMA myschema;"
Pour faciliter ensuite l’utilisation du schéma, il est possible d’affecter un schéma par défaut à un utilisateur de sorte qu’à chaque fois qu’il se connecte à la base, ce sont les schémas donnés qui seront utilisés :
$ psql -U myuser mydb -c \
"ALTER ROLE miguser SET search_path TO myschema,public;"
Si des tablespaces doivent être importés, les chemins doivent exister sur le système. Il faut donc s’assurer qu’ils sont présents et que PostgreSQL pourra écrire dans ces répertoires.
La base étant créée, il ne reste plus qu’à charger les différents
objets en commençant par les tables, puis les partitions, s’il y en a,
les vues et pour finir les tablespaces pour déplacer les objets dans
leurs espaces de stockage respectif (l’export des tablespaces contient
non seulement les tablespaces, mais aussi les ALTER TABLE
et ALTER INDEX
déplaçant les tables et index dans leur
tablespace de destination).
Les objets susceptibles de gêner l’import des données, soit en
provoquant des erreurs comme les contraintes, soit en ralentissant leur
chargement comme les index, sont laissés de côté et ne seront importés
qu’à la fin de la migration. Dans ce cas, il faudra lancer deux fois le
script tablespaces.sql
, une fois après le chargement des
tables, une fois après le chargement des index, et ignorer les
erreurs.
Lors du chargement du schéma, il y a normalement assez peu d’erreurs. Du coup, elles peuvent facilement passer inaperçues. Il est donc important de bien scruter les journaux applicatifs au fur et à mesure des commandes d’import pour détecter ces erreurs.
Les types d’erreur pouvant survenir sont souvent des problèmes
d’encodage dans les valeurs des contraintes CHECK
et dans
les index. Dans ce cas, il faut utiliser les ordres :
SET client_encoding TO autre_encodage;
Avec aussi la possibilité, pour les contraintes et index, de trouver du code SQL utilisant des fonctions qui ne sont pas convertibles automatiquement par Ora2Pg.
CREATE INDEX idx_userage ON players ( to_number(to_char('1974', user_age)) );
ALTER TABLE "actifs" ADD CONSTRAINT CHECK (WYEAR between 0 and 42);
Ora2Pg exporte les champs Oracle de type NUMBER
sans
précision en bigint
. Ce n’est pas forcément le bon choix
notamment lorsque ce champ contient des valeurs avec décimale. Une
erreur va se produire lors de l’import des données. Il sera nécessaire
alors de modifier le type de la colonne à posteriori.
On trouve de temps en temps des objets comportant des accents, sans compter qu’il faudra que le nom de l’objet soit toujours placé entre guillemets doubles. Il faudra aussi utiliser le bon encodage lors de la création et des appels à l’objet. Ceci génère énormément d’erreurs et il est fortement conseillé de les supprimer.
Ora2Pg ne détecte pas les noms d’objets correspondants à des mots réservés PostgreSQL. Il vous faudra, dans ce cas, modifier manuellement le code SQL en les incluant entre guillemets doubles.
CREATE INDEX idx_userage ON user WHERE age > 16;
CREATE INDEX idx_userage ON "user" WHERE age > 16;
Oracle autorise certaines conversions implicites qui ne sont plus
autorisées dans PostgreSQL depuis la version 8.3 (principalement les
conversions implicites entre numériques et chaînes de caractères). Dans
l’exemple, WYEAR
est une colonne de type
VARCHAR
dans Oracle et exportée comme telle dans
PostgreSQL. Il faudra donc forcer sa transformation en
integer
pour que la contrainte fonctionne, sinon vous
obtiendrez une erreur du genre :
ERROR: operator does not exist: character varying >= integer
Nous allons aborder ici les différentes étapes pour migrer de façon optimale les données :
DDL
de création des séquences,
contraintes, triggers et index ?Il faut privilégier le premier type d’export à base d’instructions
COPY
plutôt que le second à base d’ordre
INSERT
. Il y a deux raisons à cela : l’import sera beaucoup
plus rapide avec COPY
et vous aurez potentiellement moins
d’erreurs si vos données contiennent des caractères d’échappement
(\
).
Si l’option FILE_PER_TABLE
est activée, Ora2Pg va créer
un fichier de chargement de données par table exportée et le fichier
tables.sql
ne sera qu’un fichier de chargement global de
ces fichiers à base d’instruction psql
:
\i nom_fichier.sql
.
Si les directives de configuration DISABLE_TRIGGERS
et
DROP_FKEY
ont été activées, le fichier global
contient aussi les appels de désactivation/activation des triggers et de
suppression/création des contraintes.
L’avantage d’avoir des fichiers de données à disposition est qu’ils peuvent être rechargés manuellement plusieurs fois en cas de problème jusqu’à trouver le correctif à apporter.
Dans la mesure où l’export de données dans des fichiers peut occuper
un volume disque très important, Ora2Pg vous donne la possibilité de
compresser vos données soit avec gzip
soit avec
bzip2
. Pour le premier type de compression, il faut
installer au préalable le module Perl Compress::Zlib
et
donner l’extension .gz
au fichier de sortie :
ora2pg -t COPY -o datas.sql.gz -b data/ -c config/ora2pg.conf
Pour utiliser la compression avec bzip2
, il suffit que
le programme bzip2
soit dans le PATH
et il
faut donner l’extension .bz2
au fichier de sortie :
ora2pg -t COPY -o datas.sql.bz2 -b data/ -c config/ora2pg.conf
La compression se fait au fil de l’export et non à la fin lorsque le fichier est créé.
La lenteur de l’export des champs de type LOB
dans des
champs bytea
(qui est le type correspondant sous
PostgreSQL) s’explique par la taille habituellement élevée de ces
données et la nécessité d’échapper l’intégralité des données.
Si la volumétrie de ce type de données est très importante, il est
préférable d’exclure temporairement de l’export les tables possédant des
champs de ce type en les ajoutant à la directive EXCLUDE
. À
partir de là, une fois le chargement des données des autres tables
réalisé, il suffit de déplacer le nom de ces tables avec des champs
LOB
dans la directive ALLOW
pour que l’export
des données se fasse uniquement à partir de ces tables.
Pour accélérer l’échappement des données bytea
, il faut
activer l’utilisation du parallélisme. Cela permet en général d’aller
deux à trois fois plus vite. Pour cela, il faut utiliser l’option
-j
en ligne de commande ou la variable JOBS
du
fichier de configuration. La valeur est le nombre de cœurs CPU que l’on
veut utiliser.
Lorsque les options de parallélisation sont activées, il est
important de s’assurer que la valeur de DATA_LIMIT
corresponde à la vitesse moyenne maximal d’export d’un simple processus.
Par exemple, si Ora2Pg exporte globalement les données à une vitesse
moyenne de 5000 tuples/s, c’est très certainement la valeur à
donner :
DATA_LIMIT 5000
Si c’est plutôt 20 000, alors DATA_LIMIT
devra avoir
cette valeur. Ceci vous permettra d’être sûr de tirer le meilleur parti
de la parallélisation. Une valeur excessive par contre peut conduire à
des dépassements de ressources, une valeur trop faible forcera Ora2Pg à
créer des processus inutilement.
CONVERT_SRID
Oracle utilise son propre système spatial de référence SRID
(Spatial Reference System Identifier), la norme de fait est
maintenant l’ESPG (European Petroleum Survey Group). Oracle
fournit la fonction sdo_cs.map_oracle_srid_to_epsg()
permettant de le convertir dans cette norme lorsque c’est possible. Si
la directive CONVERT_SRID
est activée, la conversion sera
effectuée.
Cette fonction retourne souvent NULL
. Dans ce cas,
Ora2Pg renvoit la valeur 8307
comme SRID par défaut ou, si
CONVERT_SRID
est activée, 4326
converti en
ESPG. Il est possible de changer cette valeur par défaut en donnant la
valeur du SRID à utiliser à la directive CONVERT_SRID
. À
noter que dans ce cas, DEFAULT_SRID
ne sera pas
utilisé.
DEFAULT_SRID
La directive DEFAULT_SRID
permet de changer la valeur
par défaut du SRID EPSG à utiliser si la valeur retournée est nulle.
Elle vaut 4326
par défaut.
GEOMETRY_EXTRACT_TYPE
Cette directive permet d’informer Ora2Pg sur la méthode à utiliser pour extraire les données. Il existe trois possibilités :
La valeur WKT
ordonne à Ora2Pg d’utiliser la fonction
Oracle SDO_UTIL.TO_WKTGEOMETRY()
pour extraire les données.
Ora2Pg prend alors la représentation textuelle de la donnée géométrique
renvoyée par Oracle sans transformation autre que l’ajout du SRID.
La valeur WKB
ordonne à Ora2Pg d’utiliser la fonction
Oracle SDO_UTIL.TO_WKBGEOMETRY()
pour extraire les données.
Ora2Pg prend alors la représentation binaire de la donnée géométrique
renvoyée par Oracle la convertit en hexadécimal et ajoute le SRID.
L’utilisation de ces fonctions est intéressante pour obtenir les géométries telle que les voit Oracle ; le seul problème est qu’elles génèrent souvent des erreurs, sont incapables d’extraire des géométries en 3D et surtout provoquent des OOM (Out Of Memory) lorsque il y a un grand nombre de géométries.
Pour palier à ce problème, Ora2Pg embarque sa propre librairie
Pure Perl, Ora2Pg::GEOM
, permettant d’extraire les
données géométriques au format WKT de manière plus rapide et surtout
sans erreur. Pour utiliser cette méthode, il faut donner la valeur
INTERNAL
à la directive
GEOMETRY_EXTRACT_TYPE
.
La valeur par défaut est INTERNAL
.
L’import des fichiers de données se fait simplement avec
l’utilisation de la commande psql
en spécifiant
l’utilisateur (myuser
), la base de données
(mydb
) et le fichier à charger (option
-f
).
Si le fichier de données est compressé, il est nécessaire d’utiliser
le programme de décompression adéquat et de renvoyer la sortie vers la
commande psql
pour permettre le chargement des données au
fil de la décompression.
L’import direct des données dans la base PostgreSQL n’est activé que
si la variable PG_DSN
est définie. Dans ce cas, le
chargement se fait directement lors de l’export des données sans passer
par des fichiers intermédiaires.
Une fois que les données sont chargées avec succès, il est temps de
créer les contraintes, index et triggers qui avaient été laissés de côté
lors de la création du schéma. Ces créations se font aussi à l’aide de
la commande psql
.
Il est possible que l’import de certains codes, notamment les triggers, nécessitent la présence de certaines fonctions. Dans ce cas, il faudra les intégrer en parallèle.
La création des contraintes et des index est une phase qui très souvent dure presque aussi longtemps que le chargement des données, voire plus longtemps en fonction du nombre.
Depuis la version 16.0 d’Ora2Pg, l’action LOAD
permet de
donner un fichier d’ordre SQL en entrée (option -i
) et de
distribuer sur plusieurs processeurs ces requêtes SQL à l’aide de
l’option -j N
d’Ora2Pg.
Il suffit dans ce cas de lui donner en entrée les fichiers relatifs à la création des contraintes et des index pour pouvoir les charger beaucoup plus rapidement.
Si le type d’export INSERT
a été choisi, il arrive très
souvent que cela conduise à des erreurs de caractères invalides lors de
l’insertion, car le caractère backslash
n’est pas échappé
si STANDARD_CONFORMING_STRING
est activé, ce qui correspond
au standard SQL. Dans Ora2Pg, le même comportement survient. De ce fait,
ils doivent être activés ou désactivés en même temps dans les deux
configurations. Le meilleur moyen de corriger ce problème est d’utiliser
le type d’export recommandé pour les données, c’est-à-dire
COPY
.
Si vous n’avez pas défini correctement les variables
NLS_LANG
et CLIENT_ENCODING
, vous aurez aussi
des erreurs de caractères invalides. Il vous faudra alors trouver les
bonnes valeurs selon la méthode indiquée dans les chapitres précédents.
Malgré une définition correcte de ces variables, il se peut que vous
ayez encore des problèmes d’encodage, et même au sein d’une même table :
certains enregistrements ne passeront pas par COPY
. Il
semble qu’Oracle soit très permissif sur les caractères qu’il est
possible d’inclure dans un même jeu de caractères.
Pour l’essentiel, ces problèmes sont résolus en forçant toutes les communications à utiliser l’encodage UNICODE, ce qu’Ora2Pg fait par défaut.
Au besoin, chaque bloc d’import de données est précédé d’un appel à
SET client_encoding TO '...';
la valeur étant celle définie dans la variable
CLIENT_ENCODING
du fichier de configuration
ora2pg.conf
. Vous pouvez donc ajuster le jeu de caractères
à utiliser au niveau de PostgreSQL au plus près des données.
Les erreurs de type numérique apparaissent en raison de la conversion
du type Oracle NUMBER
sans précision, converti par défaut
vers le type indiqué par la variable DEFAULT_NUMERIC
,
c’est-à-dire bigint
. Comme le type NUMBER
permet d’inclure aussi bien des entiers que des décimaux, une erreur va
inévitablement se produire si des décimaux se trouvent dans les données
importées.
Pour résoudre ce problème, il faut évaluer la quantité de champs concernés. Si cela ne concerne que peu de champs et qu’il est possible d’avoir une valeur décimale pour ces champs, le mieux est de changer le type directement :
ALTER TABLE employees ALTER COLUMN real_age TYPE real;
Si par contre le problème se pose de manière quasi systématique, il
est alors préférable de modifier le type défini dans
DEFAULT_NUMERIC
et de recommencer l’import complet.
Lors de l’export des LOB
, si vous n’avez pas activé la
directive NO_LOB_LOCATOR
, il se peut que vous rencontriez
l’erreur Oracle :
ORA-24345: A Truncation or null fetch error occurred (DBD SUCCESS_WITH_INFO: OCIStmtFetch, LongReadLen too small and/or LongTruncOk not set)
La solution est d’augmenter la valeur du paramètre
LONGREADLEN
, par défaut 1 Mo, à la taille du plus grand
enregistrement de la colonne. Vous avez aussi la possibilité de tronquer
les données en activant LONGTRUNCOK
, ce qui ne remontera
plus d’erreur mais bien évidement tronquera certaines données dont la
taille dépasse la valeur de LONGREADLEN
. Pour plus
d’explication, voir le chapitre Configuration liée aux LOB.
La méthode la plus simple pour gagner en performances est d’utiliser
la méthode COPY
et de ne pas passer par des fichiers
intermédiaires pour importer ces données. Pour envoyer directement les
données extraites de la base Oracle vers la base PostgreSQL, il suffit
de définir les paramètres de connexion à la base PostgreSQL dans le
fichier de configuration ora2pg.conf
.
COPY ou INSERT
Préférez toujours l’import des données à l’aide de l’ordre
COPY
plutôt qu’à base d’INSERT
. Ce dernier est
beaucoup trop lent pour les gros volumes de données. Lorsque l’import
direct dans PostgreSQL est utilisé, Ora2Pg va utiliser une requête
préparée et passer les valeurs de chaque ligne en paramètre, mais même
avec cette méthode, le chargement avec l’instruction COPY
reste le plus performant.
PG_DSN
Il s’agit de l’équivalent pour PostgreSQL de
l’ORACLE_DNS
pour Oracle dans le fichier de configuration
d’Ora2Pg.
On détermine donc ici la chaîne de connexion à PostgreSQL, en particulier :
dbname=
;host=
;port=
.Par exemple, pour la base xe
se trouvant sur le serveur
postgresql_server:5432
:
PG_DSN dbi:Pg:dbname=xe;host=postgresql_server;port=5432
L’utilisation de cette chaîne de connexion nécessite l’installation
du module Perl DBD::Pg
et donc des bibliothèques
PostgreSQL.
PG_USER
Il détermine le nom de l’utilisateur PostgreSQL qui sera utilisé pour
se connecter à la base PostgreSQL désignée par le paramètre
PG_DSN
.
Exemple, pour l’utilisateur prod
:
PG_USER prod
PG_PWD
Il détermine le mot de passe de l’utilisateur PostgreSQL désigné par
PG_USER
pour se connecter sur la base PostgreSQL désignée
par PG_DSN
.
Par exemple, si le mot de passe est « secret » :
PG_PWD secret
DATA_LIMIT
Par défaut, lorsqu’on demande à Ora2Pg d’extraire les données, il récupère les données par bloc de 10 000 lignes.
Ceci permet d’écrire dans le fichier en sortie ou de transférer les données vers une base PostgreSQL toutes les 10 000 lignes et ainsi réduire les entrées/sorties. Cependant, suivant la configuration matérielle de la machine, il peut être très intéressant de faire varier cette valeur pour gagner en performance. Par exemple, sur une machine disposant de beaucoup de mémoire, travailler sur 100 000 enregistrements à chaque fois ne doit pas poser de problème et permet d’accroître les performances de manière significative.
DATA_LIMIT 100000
Si, par contre, votre machine dispose de très peu de mémoire ou que les enregistrements sont de très grosse taille, cette valeur devra être diminuée, par exemple :
DATA_LIMIT 1000
Ora2Pg de base n’utilise qu’un seul CPU ou cœur pour le chargement
des données. Ceci est très limitant en termes de vitesse d’importation
des données. Pour utiliser le parallélisme sur plusieurs cœurs, Ora2Pg
dispose de deux directives de configuration : JOBS
et
ORACLE_COPIES
, correspondant respectivement aux options
-j
et -J
de la ligne de commande.
La première, -j
ou JOBS
, correspond au
nombre de processus que l’on veut utiliser en parallèle pour écrire les
données directement dans PostgreSQL. La seconde, -J
ou
ORACLE_COPIES
, est utilisée pour définir le nombre de
connexions à Oracle pour extraire les données en parallèle.
Toutefois, pour que les requêtes d’extraction des données de la base Oracle puissent être parallélisées, il faut qu’Ora2Pg ait connaissance d’une colonne de la table sur laquelle la division par processus peut être réalisée. Cette colonne doit être de type numérique et, de préférence, être une clé unique car Ora2Pg va scinder les données en fonction du nombre de processus demandés selon le principe de la requête suivante :
SELECT * FROM matable WHERE MOD(colonne, ORACLE_COPIES) = #PROCESSUS;
où colonne
est la clé unique, ORACLE_COPIES
est la valeur de la variable du même nom ou de l’option -J
et #PROCESSUS
est le numéro du processus parallélisé en
commençant par 0.
Cette colonne est renseignée à l’aide de la directive de
configuration DEFINED_PKEY
avec pour valeur une liste de
tables associées à leurs colonnes, par exemple :
DEFINED_PKEY EMPLOYEE:ID JOBS:ID TARIF:ROUND(MONTANT_HT) ...
L’utilisation de la fonction ROUND()
est impérative
lorsque le champ n’est pas un entier. Il est à noter que l’option
-J
est sans effet si la table exportée n’a pas de colonne
définie dans la directive DEFINED_PKEY
.
En affinant les valeurs données à -j
et -J
,
il est possible de multiplier par 6 à 10 la vitesse de chargement des
données par rapport à un chargement n’utilisant pas la
parallélisation.
Les valeurs de -j
et -J
se multiplient
entre elles. Il faut donc faire attention à ne pas dépasser le nombre de
cœurs disponible sur la machine, par exemple :
ora2pg -t COPY -c ora2pg.conf -J 8 -j 3
ouvrira 8 connexions à Oracle pour extraire les données en parallèle et, pour chacune de ces connexions, 3 processus supplémentaires seront utilisés pour enregistrer les données dans PostgreSQL, ce qui donne 24 cœurs utilisés par Ora2Pg.
Ce type de parallélisme est contraignant à mettre en œuvre et peut
être mis en oeuvre par exemple pour extraire des données d’une table
avec de nombreux CLOB
ou BLOB
pour tenter
d’accélérer son export.
Pour paralléliser l’export de plusieurs tables en simultané, on peut
aussi utiliser la directive PARALLEL_TABLES
. Cette variable
prend comme valeur le nombre de connexions à Oracle qui devront être
ouvertes pour extraire les données des différentes tables en simultané.
Lorsque cette directive a une valeur supérieure à 1, la variable
FILE_PER_TABLE
est automatiquement activée.
Par défaut, ces trois options ont la valeur 1
.
JOBS 1
PARALLEL_TABLES 1
ORACLE_COPIES 1
Suivant la structure d’une table, il peut être aussi nécessaire de
faire bouger la valeur de la directive DATA_LIMIT
qui, par
défaut, est à 10000
. Pour les tables dont l’export est très
rapide, une valeur à 100000
est préférable, alors que pour
les tables avec LOB
et potentiellement des enregistrements
de très grande taille, une valeur à 100
sera probablement
nécessaire. Cette valeur est aussi relative aux performances du système.
Une bonne démarche est de tester la vitesse d’export sur des tables
moyennes et de positionner la valeur de DATA_LIMIT
à ce
niveau, par exemple :
DATA_LIMIT 60000
Puis, sur les tables à très faible débit, utiliser l’option de ligne
de commande -L
:
ora2pg -t COPY -c ora2pg.conf -J 8 -j 3 -L 100
La plupart du temps, 90 % des tables peuvent être exportées avec la
même configuration du DATA_LIMIT
et du parallélisme pour
les insertions dans PostgreSQL seul. Par exemple, sur un serveur avec 24
cœurs et 64 Go de RAM, la commande suivante (PostgreSQL tournant sur ce
même serveur) :
ora2pg -t COPY -c ora2pg.conf -j 16 -L 60000
traitera parfaitement la très grande majorité des tables. Il est à
noter que l’option -j
est sans effet si le nombre de lignes
de la table en cours d’export divisé par la valeur de -j
(dans l’exemple au dessus : 16) est inférieur à la valeur donnée dans le
DATA_LIMIT
.
Pour les autres, il faut identifier les tables avec des
CLOB
et BLOB
, les tables avec le plus grand
nombre de lignes et celles avec les plus gros volumes de données.
Ensuite, il faut voir s’il est possible de multiplexer les connexions à
Oracle pour accélérer l’export ainsi que la valeur qui sera le mieux
adaptée au DATA_LIMIT
en faisant des tests d’import de
données.
ALLOW
Par défaut, Ora2Pg exporte toutes les tables qu’il trouve, au moins
dans le schéma désigné avec la directive SCHEMA
.
On peut cependant limiter l’export à certains objets, grâce à la
directive ALLOW
. Il suffit ici de donner une liste de noms
d’objets, séparées par un espace. Les expressions régulières sont aussi
permises.
Exemple :
ALLOW EMPLOYEES SALE_.* COUNTRIES .*_GEOM_SEQ
EXCLUDE
C’est le pendant du paramètre ALLOW
ci-dessus. Cette
variable de configuration permet d’exclure des objets de l’extraction.
Par défaut, Ora2Pg n’exclut aucun objet. Les expressions régulières sont
aussi permises.
Exemple:
EXCLUDE EMPLOYEES TMP_.* COUNTRIES EMPLOYEES_COPIE_2010.* TEST[0-9]+
Attention, les expressions régulières ne fonctionnent pas avec les
versions Oracle 8i, vous devez utiliser le caractère %
à la
place, Ora2Pg utilise l’opérateur LIKE
dans ce cas.
ALLOW/EXCLUDE : Filtres étendus
Les objets filtrés par ces directives dépendent du type d’export. Les
exemples précédents montrent la manière dont sont déclarés les filtres
globaux, ceux qui vont s’appliquer quel que soit le type d’export
utilisé. Il est possible d’utiliser un filtre sur un type d’objet
uniquement en utilisant la syntaxe : OBJECT_TYPE[FILTER]
.
Par exemple :
ora2pg -p -c ora2pg.conf -t TRIGGER -a 'TABLE[employees]'
limitera l’export des triggers à ceux définis sur la table
EMPLOYEES
. Si vous voulez exporter certains triggers mais
pas ceux qui ont une clause INSTEAD OF
(liés à des
vues) :
ora2pg -c ora2pg.conf -t TRIGGER -e 'VIEW[trg_view_.*]'
Ou, par exemple, une forme plus complexe avec inclusion / exclusion d’éléments :
ora2pg -p -c ora2pg.conf -t TABLE -a 'TABLE[EMPLOYEES]' \
-e 'INDEX[emp_.*];CKEY[emp_salary_min]'
Cette commande va exporter la définition de la table
EMPLOYEES
tout en excluant tous les index commençant par
emp_
et la contrainte CHECK
nommée
emp_salary_min
.
Autre exemple, lors de l’export des partitions on peut vouloir exclure certaines tables :
ora2pg -p -c ora2pg.conf -t PARTITION -e 'PARTITION[PART_199.* PART_198.*]'
Ceci va exclure de l’export les tables partitionnées concernant les années 1980 à 1999 mais pas la table principale ni les autres partitions.
Avec l’export des privilèges (GRANT
) il est possible
d’utiliser cette forme étendue pour exclure certains utilisateurs de
l’export ou limiter l’export à certains autres :
ora2pg -p -c ora2pg.conf -t GRANT -a 'USER1 USER2'
ou bien
ora2pg -p -c ora2pg.conf -t GRANT -a 'GRANT[USER1 USER2]'
qui limitera l’export des privilèges aux utilisateurs
USER1
et USER2
. Mais si vous ne voulez pas
exporter leurs privilèges sur certaines fonctions, alors :
ora2pg -p -c ora2pg.conf -t GRANT -a 'USER1 USER2' \
-e 'FUNCTION[adm_.*];PROCEDURE[adm_.*]'
L’utilisation des filtres étendus en fonction de leur complexité peut nécessiter un certain temps d’apprentissage.
WHERE
Ce paramètre permet d’ajouter des filtres dans les requêtes
d’extraction de données. Il n’est donc utilisé que dans le cadre d’un
export de données, soit avec TYPE [INSERT|COPY]
.
Ora2Pg ajoutera tous les filtres déclarés dans cette variable et/ou correspondant à une table donnée, lorsque cela est possible.
Il convient de créer plusieurs fichiers ora2pg.conf
si
on doit ajouter des filtres sur de nombreuses tables, car la
configuration de WHERE
peut en effet rapidement devenir
illisible si elle est complexe !
WHERE 1=1
Cet exemple trivial est là pour illustrer le fait que si aucune table
n’est mentionnée, la clause WHERE
sera appliquée à toutes
les requêtes d’extraction. Si le champ n’existe pas pour une table
donnée, il sera ignoré. Autrement dit, Ora2Pg ne s’attend pas à ce que
le(s) champ(s) mentionnés sans nom existent dans toutes les tables.
Exemple:
WHERE DATE_CREATION > '2001-01-01'
Si, pour une table donnée, il existe des conditions sur ses champs (voir plus bas), alors cela prévaut sur un champ qui aurait été configuré sans spécification du nom de table.
WHERE TABLE_TEST[ID1='001']
On peut bien sûr préciser une expression pour une ou plusieurs colonnes d’une table donnée.
Par exemple, si on ne veut sélectionner que les départements dans la
table DEPARTMENTS
dont le champ ID
est
strictement inférieur à 100
:
WHERE departments[DEPARTMENT_ID<100]
Cela donne :
COPY "departments" ("department_id","department_name",[...])
FROM stdin;
10 Administration 200 1700
20 Marketing 201 1800
30 Purchasing 114 1700
40 Human Resources 203 2400
50 Shipping 121 1500
60 IT 103 1400
70 Public Relations 204 2700
80 Sales 145 2500
90 Executive 100 1700
\.
WHERE TABLE_TEST[ID1='001' AND ID1='002] DATE_CREATE > '2001-01-01' TABLE_INFO[NAME='test']
On peut ainsi composer sur plusieurs champs d’une même table, et
ainsi de suite pour plusieurs tables à la fois. Il suffit pour cela de
respecter la convention NOM_DE_TABLE[COLONNE... etc.]
et de
séparer chaque élément par un espace.
Par exemple, si on veut restreindre les données ci-dessus aux
MANAGER_ID
strictement supérieurs à 200
, on
écrira :
WHERE DEPARTMENTS[DEPARTMENT_ID<100 AND MANAGER_ID>200]
Ce qui donne comme résultat:
COPY "departments" ("department_id","department_name",[...])
FROM stdin;
20 Marketing 201 1800
40 Human Resources 203 2400
70 Public Relations 204 2700
\.
REPLACE_QUERY
Le comportement normal d’Ora2Pg est de générer automatiquement la requête d’extraction des données de la manière suivante :
SELECT * FROM TABLENAME [CLAUSE_WHERE];
Quelques fois cela n’est pas suffisant, par exemple si l’on souhaite
faire une jointure sur une table d’identifiants à migrer ou tout autre
requête plus complexe que ce que ne peut produire Ora2Pg. Dans ce cas il
est possible de forcer Ora2Pg à utiliser la requête SQL qui lui sera
donné par la directive REPLACE_QUERY
. Par exemple :
REPLACE_QUERY EMPLOYEES[
SELECT e.id,e.fisrtname,lastname
FROM EMPLOYEES e
JOIN EMP_UPDT u
ON (e.id=u.id AND u.cdate>'2014-08-01 00:00:00')
]
Cette requête permet de n’extraire que les enregistrements de la
table employees
qui ont été créés depuis le 1er
août 2014 sachant que l’information se trouve dans la table
emp_updt
.
Quand votre migration est terminée, et la nouvelle base en production, le travail n’est pas terminé.
Supervision & optimisation :
Il faut superviser cette nouvelle instance pour vérifier que les performances sont celles prévues. Il faut s’attendre à devoir optimiser quelques requêtes inattendues. Les outils pour relever les requêtes consommatrices sont classiques : pgBadger, pg_stat_statements…
Le gel massif des lignes :
Il existe un piège peu connu lié à toute migration logique d’une grande base : le gel massif des lignes. Pour des raisons techniques de recyclage des numéros de transaction, PostgreSQL doit « geler » les lignes anciennes et jamais modifiées, ce qui implique de réécrire le bloc. Or, toutes les lignes insérées par une migration ont le même « âge ». Si elles ne sont pas modifiées, ces lignes risquent d’être toutes gelées et réécrites en même temps : ce peut être très brutal en terme de saturation disque, de journaux générés, etc. si la base est grosse. Le délai avant le déclenchement du gel automatique dépend de la consommation des numéros de transaction sur l’instance migrée, et varie de quelques semaines à des années.
Des ordres VACUUM FREEZE
sur les plus grosses tables à
des moments calmes permettent d’étaler ces écritures. Si ces ordre sont
interrompus, l’essentiel de qu’il a pu geler ne sera plus à re-geler
plus tard.
Pour les détails, voir https://dali.bo/m4_html#le-wraparound-1 et https://dali.bo/m5_html#paramétrage-du-freeze-1.
Ora2Pg est simple d’utilisation. Sa configuration permet de réaliser facilement plusieurs fois la migration, pour les différentes étapes du projet. Son auteur est en recherche permanente d’améliorations ou de corrections, n’hésitez pas à lui envoyer un mail pour lui indiquer votre ressenti sur l’outil, vos rapports de bogues, etc.
Le temps de migration du schéma et des données est rapide. Même avec une grosse volumétrie de données, le plus long concerne généralement le code, au niveau applicatif comme au niveau des routines stockées.
Vous pouvez retrouver la documentation en ligne en anglais sur le site officiel d’Ora2Pg.
Dans l’éventualité où les temps de chargement sont un frein à la migration, Dalibo contribue à un outil spécialisé dans l’orchestration du chargement de données nommé Data2Pg. Son auteur, Philippe Beaudoin, a pu le présenter lors du PG Day France 2022 :
Une série de documents concernant la migration Oracle vers PostgreSQL est disponible sur le wiki PostgreSQL.
La version en ligne des solutions de ces TP est disponible sur https://dali.bo/n2_solutions.
Création de l’espace de travail
Avec l’utilisateur dalibo, créer une arborescence de travail destinée à recevoir les fichiers du projet de migration sous
$HOME/tp_migration
.
Création d’un super-utilisateur
Pour la suite des exercices, il est nécessaire de disposer d’une instance pour laquelle le compte dalibo est autorisé à se connecter.
sudo -iu postgres createuser --superuser dalibo
Exploration de la base
Renseigner la chaîne de connexion à la base Oracle dans la configuration du projet et lister les schémas disponibles avec
ora2pg
.
Lister toutes les tables disponibles avec la commande
ora2pg
Migration du schéma
Configurer l’export pour que les fonctions, contraintes et index soient générés dans plusieurs fichiers séparés, à l’aide des directives
FILE_PER_FUNCTION
,FILE_PER_CONSTRAINT
,FILE_PER_FKEYS
etFILE_PER_INDEX
.
S’assurer que la conversion automatique est désactivée dans la configuration du projet.
Obtenir la liste des colonnes du schéma avec les conversions proposées par Ora2PG.
Ajuster les types
DATE
etNUMBER(8,2)
dans la configuration.
Exécuter le script permettant l’exécution chaînée de tous les types d’export du schéma et des procédures stockées.
Créer la base de données
pghr
dont le propriétaire estdalibo
.
Importer uniquement les tables, les autres objets du schéma seront importés après l’import des données.
Migration des données
Exporter toutes les données de la base Oracle dans des fichiers.
Importer les données dans la base PostgreSQL.
Importer les contraintes, index, séquences et triggers.
Création de l’espace de travail
Avec l’utilisateur dalibo, créer une arborescence de travail destinée à recevoir les fichiers du projet de migration sous
$HOME/tp_migration
.
Pour créer une arborescence de travail destinée à recevoir les fichiers du projet de migration, on peut s’aider d’Ora2Pg en exécutant la commande suivante :
ora2pg --init_project tp_migration --project_base $HOME
Voici l’arborescence générée par Ora2Pg :
tp_migration/
├── config
│ └── ora2pg.conf
├── data
├── export_schema.sh
├── import_all.sh
├── reports
├── schema
│ ├── dblinks
│ ├── directories
│ ├── functions
│ ├── grants
│ ├── mviews
│ ├── packages
│ ├── partitions
│ ├── procedures
│ ├── sequences
│ ├── sequence_values
│ ├── synonyms
│ ├── tables
│ ├── tablespaces
│ ├── triggers
│ ├── types
│ └── views
└── sources
├── functions
├── mviews
├── packages
├── partitions
├── procedures
├── triggers
├── types └── views
Ora2Pg a aussi créé un script pour l’export automatique,
export_schema.sh
, un script pour automatiser l’import
dans PostgreSQL, import_all.sh
et un fichier de
configuration générique config/ora2pg.conf
.
Création d’un super-utilisateur
Pour la suite des exercices, il est nécessaire de disposer d’une instance pour laquelle le compte dalibo est autorisé à se connecter.
sudo -iu postgres createuser --superuser dalibo
Puisque le fichier pg_hba.conf
de l’instance autorise
par défaut les connexions sur le socket local avec une authentification
peer
, le compte dalibo peut lister les
bases de données, se connecter à chacune d’entre elles et dispose des
droits super-utilisateur pour en créer de nouvelles.
Dans le cadre d’une migration classique, il est recommandé de limiter les droits du propriétaire d’une base de données au strict minimum afin de réduire la surface d’attaque de l’instance en cas de compromissions d’un serveur de l’infrastructure.
Exploration de la base
Renseigner la chaîne de connexion à la base Oracle dans la configuration du projet et lister les schémas disponibles avec
ora2pg
.
Le fichier de configuration à modifier pour définir la chaîne de
connexion à la base Oracle est
tp_migration/config/ora2pg.conf
.
Normalement la directive ORACLE_HOME
doit déjà avoir la
valeur du ORACLE_HOME
de l’installation :
ORACLE_HOME /opt/oracle/product/21c/dbhomeXE
Il reste donc à configurer les paramètres de connexion à l’instance
XE
d’Oracle avec l’utilisateur HR
:
ORACLE_DSN dbi:Oracle://localhost:1521/hr
ORACLE_USER hr
ORACLE_PWD phoenix
Dans la mesure où l’utilisateur hr
n’a pas les
privilèges DBA
, il faut aussi activer la directive
USER_GRANTS
:
USER_GRANTS 1
On veut exporter le schema HR
, il faut donc le spécifier
dans la configuration et remplacer :
SCHEMA CHANGE_THIS_SCHEMA_NAME
par
SCHEMA HR
L’option -t SHOW_SCHEMA
permet d’obtenir la liste des
schémas disponibles, à l’exception des schémas systèmes (directive
SYSUSERS
) :
$ cd $HOME/tp_migration
$ ora2pg -d -c config/ora2pg.conf -t SHOW_SCHEMA
Ora2Pg version: 22.1
Trying to connect to database: dbi:Oracle://192.168.1.109:1521/hr
Isolation level: SET TRANSACTION ISOLATION LEVEL SERIALIZABLE
Force Oracle to compile schema HR before code extraction
Showing all schema...
SCHEMA HR
Lister toutes les tables disponibles avec la commande
ora2pg
Pour lister les tables de l’instance :
$ ora2pg -c config/ora2pg.conf -t SHOW_TABLE
[1] TABLE HR.COUNTRIES (owner: HR, 25 rows)
[2] TABLE HR.DEPARTMENTS (owner: HR, 27 rows)
[3] TABLE HR.EMPLOYEES (owner: HR, 107 rows)
[4] TABLE HR.JOBS (owner: HR, 19 rows)
[5] TABLE HR.JOB_HISTORY (owner: HR, 10 rows)
[6] TABLE HR.LOCATIONS (owner: HR, 23 rows)
[7] TABLE HR.REGIONS (owner: HR, 4 rows)
----------------------------------------------------------
Total number of rows: 215
Top 10 of tables sorted by number of rows:
[1] TABLE HR.EMPLOYEES has 107 rows
[2] TABLE HR.DEPARTMENTS has 27 rows
[3] TABLE HR.COUNTRIES has 25 rows
[4] TABLE HR.LOCATIONS has 23 rows
[5] TABLE HR.JOBS has 19 rows
[6] TABLE HR.JOB_HISTORY has 10 rows
[7] TABLE HR.REGIONS has 4 rows
Top 10 of largest tables:
[1] TABLE HR.DEPARTMENTS: 0 MB (27 rows)
[2] TABLE HR.LOCATIONS: 0 MB (23 rows)
[3] TABLE HR.EMPLOYEES: 0 MB (107 rows)
[4] TABLE HR.JOB_HISTORY: 0 MB (10 rows)
[5] TABLE HR.JOBS: 0 MB (19 rows) [6] TABLE HR.REGIONS: 0 MB (4 rows)
Cette commande affiche aussi le top 10 des tables avec le plus d’enregistrements et, si l’utilisateur de connexion a les droits suffisants, le top 10 des tables de plus gros volume.
Migration du schéma
Configurer l’export pour que les fonctions, contraintes et index soient générés dans plusieurs fichiers séparés, à l’aide des directives
FILE_PER_FUNCTION
,FILE_PER_CONSTRAINT
,FILE_PER_FKEYS
etFILE_PER_INDEX
.
Modifier le fichier de configuration du projet et positionner les valeurs suivantes :
FILE_PER_FUNCTION 1
FILE_PER_CONSTRAINT 1
FILE_PER_FKEYS 1
FILE_PER_INDEX 1
S’assurer que la conversion automatique est désactivée dans la configuration du projet.
La directive PLSQL_PGSQL
doit être désactivée pour la
suite des travaux pratiques. En effet, le script
export_schema.sh
contrôle déjà ce comportement en exportant
une version originale et une version convertie du code embarquée à
l’aide de l’option -p
.
PLSQL_PGSQL 0
Obtenir la liste des colonnes du schéma avec les conversions proposées par Ora2PG.
Le mode d’export SHOW_COLUMN
parcourt le catalogue
distant et affiche les colonnes de chaque table. Il est recommandé de
sauvegarder le résultat dans un fichier pour le consulter régulièrement,
ou pour le comparer entre deux ajustements de configuration.
Le script export_schema.sh
se charge de collecter ces
informations dans le répertoire reports
du projet.
ora2pg -c config/ora2pg.conf -t SHOW_COLUMN
La revue des conversions prévues par Ora2Pg permet d’identifier
quelques colonnes dont la perte de précision est possible comme le
NUMBER(8,2)
qui sera remplacé par un
double precision
. Le choix d’un timestamp
est
également inadapté, car les données temporelles du schéma Oracle ne sont
pas horodatées.
...
[3] TABLE EMPLOYEES (owner: HR, 1 rows)
...
HIRE_DATE : DATE(7) => timestamp(0) (date?)
...
SALARY : NUMBER(8,2) => double precision
...
[5] TABLE JOB_HISTORY (owner: HR, 1 rows)
...
START_DATE : DATE(7) => timestamp(0) (date?)
END_DATE : DATE(7) => timestamp(0) (date?) ...
Ajuster les types
DATE
etNUMBER(8,2)
dans la configuration.
Dans le fichier de configuration du projet
config/ora2pg.conf
, ajouter les directives suivantes :
DATA_TYPE DATE:date
MODIFY_TYPE employees:salary:decimal
Exécuter le script permettant l’exécution chaînée de tous les types d’export du schéma et des procédures stockées.
$ sh export_schema.sh
Voici la liste des commandes exécutées par le script :
Running: ora2pg -p -t SEQUENCE -o sequence.sql -b ./schema/sequences
Running: ora2pg -p -t TABLE -o table.sql -b ./schema/tables
Running: ora2pg -p -t PACKAGE -o package.sql -b ./schema/packages
Running: ora2pg -p -t VIEW -o view.sql -b ./schema/views
Running: ora2pg -p -t GRANT -o grant.sql -b ./schema/grants
Running: ora2pg -p -t TRIGGER -o trigger.sql -b ./schema/triggers
Running: ora2pg -p -t FUNCTION -o function.sql -b ./schema/functions
Running: ora2pg -p -t PROCEDURE -o procedure.sql -b ./schema/procedures
Running: ora2pg -p -t TABLESPACE -o tablespace.sql -b ./schema/tablespaces
Running: ora2pg -p -t PARTITION -o partition.sql -b ./schema/partitions
Running: ora2pg -p -t TYPE -o type.sql -b ./schema/types
Running: ora2pg -p -t MVIEW -o mview.sql -b ./schema/mviews
Running: ora2pg -p -t DBLINK -o dblink.sql -b ./schema/dblinks
Running: ora2pg -p -t SYNONYM -o synonym.sql -b ./schema/synonyms
Running: ora2pg -p -t DIRECTORY -o directorie.sql -b ./schema/directories
Généralement
l’extraction des GRANT
et TABLESPACE
génère
une erreur si l’utilisateur n’a pas les droits DBA.
L’option -p
implique une transformation par Ora2Pg des
objets embarquant du SQL ou du code PL/SQL. Le script réalise l’export
de ces mêmes objets avec le code source originel de la base Oracle
pour d’éventuelles comparaisons :
Running: ora2pg -t PACKAGE -o package.sql -b ./sources/packages
Running: ora2pg -t VIEW -o view.sql -b ./sources/views
Running: ora2pg -t TRIGGER -o trigger.sql -b ./sources/triggers
Running: ora2pg -t FUNCTION -o function.sql -b ./sources/functions
Running: ora2pg -t PROCEDURE -o procedure.sql -b ./sources/procedures
Running: ora2pg -t PARTITION -o partition.sql -b ./sources/partitions
Running: ora2pg -t TYPE -o type.sql -b ./sources/types
Running: ora2pg -t MVIEW -o mview.sql -b ./sources/mviews
Voici l’arbre des fichiers générés :
tp_migration/
├── config
│ └── ora2pg.conf
├── data
├── export_schema.sh
├── import_all.sh
├── reports
│ ├── columns.txt
│ ├── report.html
│ └── tables.txt
├── schema
│ ├── dblinks
│ ├── directories
│ ├── functions
│ │ ├── EMP_SAL_RANKING_function.sql
│ │ ├── function.sql
│ │ └── LAST_FIRST_NAME_function.sql
│ ├── grants
│ ├── mviews
│ ├── packages
│ │ ├── emp_actions
│ │ │ ├── fire_employee_package.sql
│ │ │ ├── hire_employee_package.sql
│ │ │ ├── num_above_salary_package.sql
│ │ │ └── raise_salary_package.sql
│ │ ├── emp_mgmt
│ │ │ ├── create_dept_package.sql
│ │ │ ├── hire_package.sql
│ │ │ ├── increase_comm_package.sql
│ │ │ ├── increase_sal_package.sql
│ │ │ ├── remove_dept_package.sql
│ │ │ └── remove_emp_package.sql
│ │ ├── global_variables.conf
│ │ └── package.sql
│ ├── partitions
│ ├── procedures
│ │ ├── ADD_JOB_HISTORY_procedure.sql
│ │ ├── procedure.sql
│ │ └── SECURE_DML_procedure.sql
│ ├── sequences
│ │ └── sequence.sql
│ ├── synonyms
│ ├── tables
│ │ ├── CONSTRAINTS_table.sql
│ │ ├── FKEYS_table.sql
│ │ ├── INDEXES_table.sql
│ │ └── table.sql
│ ├── tablespaces
│ ├── triggers
│ │ ├── trigger.sql
│ │ └── UPDATE_JOB_HISTORY_trigger.sql
│ ├── types
│ └── views
│ ├── EMP_DETAILS_VIEW_view.sql
│ └── view.sql
└── sources
├── functions
│ ├── EMP_SAL_RANKING_function.sql
│ ├── function.sql
│ └── LAST_FIRST_NAME_function.sql
├── mviews
├── packages
│ ├── emp_actions_package.sql
│ ├── emp_mgmt_package.sql
│ └── package.sql
├── partitions
├── procedures
│ ├── ADD_JOB_HISTORY_procedure.sql
│ ├── procedure.sql
│ └── SECURE_DML_procedure.sql
├── triggers
│ ├── trigger.sql
│ └── UPDATE_JOB_HISTORY_trigger.sql
├── types
└── views
├── EMP_DETAILS_VIEW_view.sql └── view.sql
Créer la base de données
pghr
dont le propriétaire estdalibo
.
Puisque l’utilisateur dalibo
a été créé précédemment, il
suffit de créer la base de la manière suivante :
createdb --echo --owner dalibo pghr
Puisque cette base sera essentiellement utilisée dans la suite des
exercices, il est possible de positionner la variable
PGDATABASE
dans le fichier .bash_profile
de
l’utilisateur dalibo.
$ cat ~/.bash_profile
export PGDATABASE=pghr
Charger la nouvelle variable d’environnement :
source $HOME/.bash_profile
Importer uniquement les tables, les autres objets du schéma seront importés après l’import des données.
psql -f schema/tables/table.sql
psql -f schema/views/view.sql
Vérification de la bonne application du script d’import :
psql -c "\d"
List of relations
Schema | Name | Type | Owner
--------+------------------+-------+--------
public | countries | table | dalibo
public | departments | table | dalibo
public | emp_details_view | view | dalibo
public | employees | table | dalibo
public | job_history | table | dalibo
public | jobs | table | dalibo
public | locations | table | dalibo public | regions | table | dalibo
Migration des données
Exporter toutes les données de la base Oracle dans des fichiers.
ora2pg -t COPY -o data.sql -b data -c config/ora2pg.conf
[========================>] 7/7 tables (100.0%) end of scanning.
[========================>] 25/25 rows (100.0%) Table COUNTRIES (25 recs/sec)
[========================>] 27/27 rows (100.0%) Table DEPARTMENTS (27 recs/sec)
[========================>] 107/107 rows (100.0%) Table EMPLOYEES (107 recs/sec)
[========================>] 19/19 rows (100.0%) Table JOBS (19 recs/sec)
[========================>] 10/10 rows (100.0%) Table JOB_HISTORY (10 recs/sec)
[========================>] 23/23 rows (100.0%) Table LOCATIONS (23 recs/sec) [========================>] 4/4 rows (100.0%) Table REGIONS (4 recs/sec)
Cette commande va générer un fichier par table et un fichier
data.sql
qui pourra être utilisé pour charger les données
en une fois.
data/
├── COUNTRIES_data.sql
├── data.sql
├── DEPARTMENTS_data.sql
├── EMPLOYEES_data.sql
├── JOB_HISTORY_data.sql
├── JOBS_data.sql
├── LOCATIONS_data.sql └── REGIONS_data.sql
Importer les données dans la base PostgreSQL.
L’import peut être réalisé fichier par fichier, mais il est plus
simple d’utiliser le script de chargement global data.sql
.
Voici son contenu :
BEGIN;
ALTER TABLE countries DISABLE TRIGGER USER;
ALTER TABLE departments DISABLE TRIGGER USER;
ALTER TABLE employees DISABLE TRIGGER USER;
ALTER TABLE jobs DISABLE TRIGGER USER;
ALTER TABLE job_history DISABLE TRIGGER USER;
ALTER TABLE locations DISABLE TRIGGER USER;
ALTER TABLE regions DISABLE TRIGGER USER;
'data/COUNTRIES_data.sql'
\i 'data/DEPARTMENTS_data.sql'
\i 'data/EMPLOYEES_data.sql'
\i 'data/JOBS_data.sql'
\i 'data/JOB_HISTORY_data.sql'
\i 'data/LOCATIONS_data.sql'
\i 'data/REGIONS_data.sql'
\i
ALTER TABLE countries ENABLE TRIGGER USER;
ALTER TABLE departments ENABLE TRIGGER USER;
ALTER TABLE employees ENABLE TRIGGER USER;
ALTER TABLE jobs ENABLE TRIGGER USER;
ALTER TABLE job_history ENABLE TRIGGER USER;
ALTER TABLE locations ENABLE TRIGGER USER;
ALTER TABLE regions ENABLE TRIGGER USER;
COMMIT;
Exécutons le chargement :
psql -f data/data.sql -v ON_ERROR_STOP=1
Vérification :
psql -c "SELECT * FROM countries"
country_id | country_name | region_id
------------+--------------------------+-----------
AR | Argentina | 2
AU | Australia | 3
BE | Belgium | 1
BR | Brazil | 2
CA | Canada | 2
CH | Switzerland | 1
CN | China | 3
DE | Germany | 1
DK | Denmark | 1
EG | Egypt | 4
FR | France | 1
HK | HongKong | 3
IL | Israel | 4
IN | India | 3
IT | Italy | 1
JP | Japan | 3
KW | Kuwait | 4
MX | Mexico | 2
NG | Nigeria | 4
NL | Netherlands | 1
SG | Singapore | 3
UK | United Kingdom | 1
US | United States of America | 2
ZM | Zambia | 4
ZW | Zimbabwe | 4 (25 lignes)
Importer les contraintes, index, séquences et triggers.
psql -f schema/tables/CONSTRAINTS_table.sql
psql -f schema/tables/FKEYS_table.sql
psql -f schema/tables/INDEXES_table.sql
psql -f schema/sequences/sequence.sql