Autor Thema: Wie "kleine" Domino-Website (20 Pages) in statische HTML konvertieren?  (Gelesen 4989 mal)

Offline jww

  • Aktives Mitglied
  • ***
  • Beiträge: 183
  • Geschlecht: Männlich
Hallo,

ich habe da eine für Domino Experten vielleicht eine seltsame Frage:

Es gibt eine Website mit ein paar Sub-Pages. Bestandteile der Seiten sind zwar mit Code unterlegt (z.B. berechnete Felder oder Labels, Lookups etc.), dieser Code ist aber "simpel". Keine Benutzerrechte etc.

Ich würde diese Website nun gerne "as is" 1:1 als HTML Site haben, um sie bei einem "regulären Hoster" (ohne Domino Angebot) abrufbar zu machen.

Warum ich das will? Nun, es fällt mir leicht, Domino Apps zu schreiben, aber meine HTML Kenntnisse sind sehr gering. Insofern würde ich gerne Domino als "Entwicklungssystem" für eine dann aber statische Webseite "misbrauchen" und könnte mir damit die Einarbeitung in andere "native" HTML Tools ersparen.

Gibt es so etwas wie einen "Website-Exporter"?

Danke im Voraus für Eure Hilfe und einen guten Rutsch in 2014.


Notes ist klasse - und ab und an zum auf den Mond schiessen.

Offline mezz

  • Junior Mitglied
  • **
  • Beiträge: 69
du kannst natürlich einfach die seiten von deinem domino-server runterladen z.b. mit curl [1] oder wget[2], dein webbrowser kann sowas auch (seiten einzeln abspeichern)  dabei hast du dann aber ggf. das problem das verweise grafiken etc. nicht stimmen.
das gelbe vom ei ist das natürlich nicht aber wenn du lieber rumfrickelst als ein anderes programm zu benutzen oder html zu "lernen" ;-)

[1] http://curl.haxx.se/
[2] http://www.gnu.org/software/wget/

perl -e 's,,q#$:%*?:!&=(:!>@.#.$/,e;y;!-./:-@[-]{-~; a-uJP;;print;'

Offline flaite

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 2.966
    • mein del.icio.us
Die curl/wget Lösung find ich schon mal ganz sinnvoll...
Jedenfalls deutlich sinnvoller als das ganze nochmal in HTML abzutippen.

Allerdings musst Du dann die 20 Seiten per URL ansteuern.

Noch deutlich besser wär aber ein Webcrawler.
Das heisst ein Ding, das den einzelnen Links auf der Seite nachgeht, die entsprechende html-Seite runterläd und auf der Festplatte abspeichert.
Vielleicht findest Du auch einen Webcrawler als Tool, d.h. etwas, was Du ohne Kenntnisse einer weiteren Programmiersprache in deinen Prozess integrieren kannst.
Das hier könnte brauchbar sein: http://www.httrack.com/

****
Exkurs 1
Ich persönlich würd dafür ein entsprechendes Java OpenSource Projekt suchen. https://code.google.com/p/crawler4j/ sieht auf den ersten Blick brauchbar aus. Dann würd ich das runterladen und in eine moderne IDE laden, d.h. InteliJ IDEA, Netbeans täts auch. Eclipse zur Not auch, entfremdet aber den IT Arbeiter zunehmend von seinem eigentlichen Selbst.
****

Die href und src Attribute in den img, css, js und Hyperlinks würd ich mit den Suchen- und Ersetzen Fähigkeiten der IDE (bei Tool Editor) suchen und ersetzen.

****
Exkurs 2
Bei guter Laune würd ich das Suchen und Ersetzen per groovy Script automatisieren.
Bei sehr guter Laune würd ich versuchen, aus crawler4j ein eigenes groovy Projekt zu machen.
****
« Letzte Änderung: 01.01.14 - 08:04:08 von Pitiyankee »
Ich stimm nicht mit allen überein, aber mit vielen und sowieso unterhaltsam -> https://www.youtube.com/channel/UCr9qCdqXLm2SU0BIs6d_68Q

---

Aquí no se respeta ni la ley de la selva.
(Hier respektiert man nicht einmal das Gesetz des Dschungels)

Nicanor Parra, San Fabian, Región del Bio Bio, República de Chile

Offline jww

  • Aktives Mitglied
  • ***
  • Beiträge: 183
  • Geschlecht: Männlich
Danke für die Antworten.

Das Curl ist gar nicht so verkehrt, weil ich ohnehin recht viel in PHP programmiere. Allerdings keine Webseiten sondern das ist die Programmiersprache einer Hausautomation, die ich einsetze. Hauptproblem ist da, dass ich die Webseiten "analysieren" muss und die Links, die auf die Site selbst zeigen sowie die Bilder usw. finden downloaden und im HTML umbenennen muss.

Insofern ist mir die Webcrawler Idee dann doch angenehmer. Ich werde es mal damit versuchen.

Wollte mit der Frage nur vermeiden, dass es da vielleicht etwas "eingebautes" gibt, denn ich glaube mich zu erinnern, dass in ganz frühen Versionen, als der Server auch noch "Notes Server" hieß und die ersten Web-Sachen kamen (V3 oder V4??, ich erinnere mich noch recht gut an die "Chille Templates"), solch ein Prozess vorhanden war, mit dem man die Website "exportieren" konnte.

Also werde ich wie gesagt mal Webcrawler ausrobieren.

Danke nochmals und Happy New Year an alle Forumsmitglieder
Notes ist klasse - und ab und an zum auf den Mond schiessen.

Offline pram

  • Gold Platin u.s.w. member:)
  • *****
  • Beiträge: 1.169
  • Geschlecht: Männlich
    • Foconis Object Framework
Ich mache das immer mit
Code
wget -m -np http://deineseite.de/
Dies lädt eigentlich ziemlich zuverlässig alle verlinkten Seiten runter, sofern es sich nicht um irgendwelche dynamischen AJAX-Dinge etc. handelt.
-m für mirror
-np für no-parent (kein Verlassen der Haupt-URL)

=> wget.exe gibts auch für Windows

Frohes neues Jahr
Roland
Roland Praml

IBM Certified Application Developer - Lotus Notes and Domino 8
Ich verwende das Foconis Object Framework

 

Impressum Atnotes.de  -  Powered by Syslords Solutions  -  Datenschutz