Posts

Es werden Posts vom September, 2006 angezeigt.

Excel: csv-Dateien nach Download korrekt öffnen

Um zu verhindern, dass csv-Dateien nach dem Download in Excel in die erste Spalte eingelesen werden, ist eine Veränderung der Dateizuordnungen im Windows-Explorer notwendig: (unter Windows XP) * im Windows-Explorer-Menü: Extras / Ordneroptionen / Dateitypen -> csv suchen * "erweitert" / "open" auswählen / Bearbeiten: * Anwendung für diesen Vorgang: ... \EXCEL.EXE" "%1" * DDE abwählen => dann klappt's auch mit dem Öffnen Dieser Tip stammt Timo Junge!

Datapump - einrichten

einrichten der Datapump: 1) Verzeichnis anlegen: CREATE DIRECTORY DPUMP_TEST AS ' '; 2) Userrechte erstellen: GRANT READ, WRITE ON DIRECTORY DPUMP_TEST to test; Beispielaufruf: expdp test/test DIRECTORY=dpump_test DUMPFILE=test.dmp LOGFILE=test.log schemas=test

Datapump - Verzeichnis erstellen

siehe auch Metalink-Doc: 266875.1 HOW TO SPECIFY A DIRECTORY IN ORACLE10G EXPORT/IMPORT DATAPUMP -------------------------------------------------------------- 1. SERVER-BASED OR CLIENT-BASED ---------------------------- The parameter DIRECTORY specifies the location to which Export DataPump or Import DataPump can write the dump file set, the log file, and the SQL file (Import DataPump only). As export DataPump and import DataPump are server-based, rather than client-based, the output files are accessed relative to server-based directory paths. Data Pump requires you to specify directory paths as directory objects. A directory object maps a name to a directory path on the file system. 2. HOW TO CREATE A DIRECTORY ------------------------- To create a directory, you must have the DBA role or you must have been granted the CREATE ANY DIRECTORY privilege. Example (a DBA creates directories on the Windows platform and grants access to user scott): SQL> CONNECT

Komplettes Datenbankschema in andere Datenbank kopieren

siehe Metalink-Dokument 336012.1 : How To Copy Database Schemas To A New Database With Same Login Password ? In Oracle10g you can use the Export DataPump and Import DataPump utilities. Example: 1. Run a schema level Export DataPump job and connect with a user who has the EXP-FULL_DATABASE role. E.g.: expdp system/manager directory=my_dir dumpfile=exp_scott.dmp logfile=exp_scott.log schemas=scott 2. Run a schema level Import DataPump job which will also create the user in the target database. E.g.: impdp system/manager directory=my_dir dumpfile=exp_scott.dmp logfile=imp_scott.log schemas=scott 3. Or you can create a logfile (SQLFILE) with all relevant statements. E.g.: impdp system/manager directory=my_dir dumpfile=exp_scott.dmp logfile=imp_scott.log schemas=scott sqlfile=imp_user.sql

Datapump und ASM - Einrichten

Um Datapump zusammen mit ASM nutzen zu können sind folgende Schritten zu unternehmen: 1) Verzeichnis im ASM erstellen: - im ASMCMD: mkdir DUMPSETS 2) DB-Directory erstellen: - im SQLPlus nach Anmedlung an der entsprechenden DB: create or replace directory dumpsets as '+FRA/DUMPSETS'; - Rechte setzen: grant read,write on directory dumpsets to public; (nur für Testumgebung ;-)) 3) Log-Verzeichnis erstellen: - auf der Zeile: mkdir /d01/admin/dumplogs - im SQLPlus: create directory dumplogs as '/d01/admin/dumplogs'; grant read,write on directory dumplogs to public;

RMAN und KEEP - Option

Um Datensicherungen über als das "Standard"-Sicherungsfenster hinaus aufheben zu können, gibt es beim RMAN die KEEP-Option: backup database keep until time 'sysdate+45' nologs; Im Beispiel wird die Datenbank gesichert und das Backupset 45 Tage lang aufgehoben. Einschränkung: Obiges Statement läuft nur bei einer Sicherung auf Band. Bei Sicherungen in die FRA (Flash Recovery Area) ist die KEEP-Option NICHT ZULÄSSIG. Bei Datenbanken im NOArchivelog -Modus (ja sowas setzen wir produktiv ein) muß sich die Datenbank im MOUNT-Status befinden, steht für normale Datenbankoperationen also nicht zur Verfügung. Für eine Sicherung zum einen in die FRA (für schnelles Recovery) und zum anderen in eine separate Wochensicherung (mit KEEP) müßte die Datenbank also zweimal gesichert werden (= doppelte Downtime). Als Alternative bietet sich folgende Lösung an: 1) backup as copy incremental level 0 database; 2) backup recovery area; 3) backup as backupset copy of database keep until time

Import größerer Tabellen, ohne UNDO-Tablespace zu sprengen

Beim Import einer Tabelle aus einem dump ist mir nach geraumer Zeit der Undo-TS um die Ohren geflogen - schlimmer noch: Die Transaktion wurde daraufhin abgebrochen und 10GB Daten wurden wieder zurückgerollt (rollback auf 10GB!). Das hat dann nochmal doppelt so lange gedauert. Besser: Commit einschalten! imp user@tst3 ignore=y feedback=100000 tables=ex_facts_all commit=Y

URL-Parameter für Oracle Discoverer Plus

Im Metalink-Dokument 340203.1 finden sich einige Parameter, um Oracle Discoverer Plus auch ohne die Application-Server Verbindungsseite aufzurufen. Ein Beispiel: ../discoverer/ plus ?&us= user &db= host:port:sid &lm= OLAP &workbookname= Users/USER/My+WB &sheet= My+Sheet Ohne den Workbook-Parameter wird die Liste, der zuletzt geöffneten Workbooks angezeit. Damit läßt sich sehr elegant das Einrichten privater Verbindungen umgehen...