AtNotes Übersicht Willkommen Gast. Bitte einloggen oder registrieren.
28.03.20 - 19:31:51
Übersicht Hilfe Regeln Glossar Suche Einloggen Registrieren
News:
Schnellsuche:
+  Das Notes Forum
|-+  Domino 8 und frühere Versionen
| |-+  ND7: Entwicklung (Moderatoren: eknori, koehlerbv)
| | |-+  Wie "kleine" Domino-Website (20 Pages) in statische HTML konvertieren?
« vorheriges nächstes »
Seiten: [1] Nach unten Drucken
Autor Thema: Wie "kleine" Domino-Website (20 Pages) in statische HTML konvertieren?  (Gelesen 3334 mal)
jww
Aktives Mitglied
***
Offline Offline

Geschlecht: Männlich
Beiträge: 178


« am: 31.12.13 - 13:02:15 »

Hallo,

ich habe da eine für Domino Experten vielleicht eine seltsame Frage:

Es gibt eine Website mit ein paar Sub-Pages. Bestandteile der Seiten sind zwar mit Code unterlegt (z.B. berechnete Felder oder Labels, Lookups etc.), dieser Code ist aber "simpel". Keine Benutzerrechte etc.

Ich würde diese Website nun gerne "as is" 1:1 als HTML Site haben, um sie bei einem "regulären Hoster" (ohne Domino Angebot) abrufbar zu machen.

Warum ich das will? Nun, es fällt mir leicht, Domino Apps zu schreiben, aber meine HTML Kenntnisse sind sehr gering. Insofern würde ich gerne Domino als "Entwicklungssystem" für eine dann aber statische Webseite "misbrauchen" und könnte mir damit die Einarbeitung in andere "native" HTML Tools ersparen.

Gibt es so etwas wie einen "Website-Exporter"?

Danke im Voraus für Eure Hilfe und einen guten Rutsch in 2014.


Gespeichert

Notes ist klasse - und ab und an zum auf den Mond schiessen.
mezz
Junior Mitglied
**
Offline Offline

Beiträge: 69


« Antworten #1 am: 31.12.13 - 14:02:38 »

du kannst natürlich einfach die seiten von deinem domino-server runterladen z.b. mit curl [1] oder wget[2], dein webbrowser kann sowas auch (seiten einzeln abspeichern)  dabei hast du dann aber ggf. das problem das verweise grafiken etc. nicht stimmen.
das gelbe vom ei ist das natürlich nicht aber wenn du lieber rumfrickelst als ein anderes programm zu benutzen oder html zu "lernen" ;-)

[1] http://curl.haxx.se/
[2] http://www.gnu.org/software/wget/
Gespeichert


perl -e 's,,q#$:%*?:!&=(:!>@.#.$/,e;y;!-./:-@[-]{-~; a-uJP;;print;'
flaite
Gold Platin u.s.w. member:)
*****
Offline Offline

Beiträge: 2966


WWW
« Antworten #2 am: 01.01.14 - 07:59:26 »

Die curl/wget Lösung find ich schon mal ganz sinnvoll...
Jedenfalls deutlich sinnvoller als das ganze nochmal in HTML abzutippen.

Allerdings musst Du dann die 20 Seiten per URL ansteuern.

Noch deutlich besser wär aber ein Webcrawler.
Das heisst ein Ding, das den einzelnen Links auf der Seite nachgeht, die entsprechende html-Seite runterläd und auf der Festplatte abspeichert.
Vielleicht findest Du auch einen Webcrawler als Tool, d.h. etwas, was Du ohne Kenntnisse einer weiteren Programmiersprache in deinen Prozess integrieren kannst.
Das hier könnte brauchbar sein: http://www.httrack.com/

****
Exkurs 1
Ich persönlich würd dafür ein entsprechendes Java OpenSource Projekt suchen. https://code.google.com/p/crawler4j/ sieht auf den ersten Blick brauchbar aus. Dann würd ich das runterladen und in eine moderne IDE laden, d.h. InteliJ IDEA, Netbeans täts auch. Eclipse zur Not auch, entfremdet aber den IT Arbeiter zunehmend von seinem eigentlichen Selbst.
****

Die href und src Attribute in den img, css, js und Hyperlinks würd ich mit den Suchen- und Ersetzen Fähigkeiten der IDE (bei Tool Editor) suchen und ersetzen.

****
Exkurs 2
Bei guter Laune würd ich das Suchen und Ersetzen per groovy Script automatisieren.
Bei sehr guter Laune würd ich versuchen, aus crawler4j ein eigenes groovy Projekt zu machen.
****
« Letzte Änderung: 01.01.14 - 08:04:08 von Pitiyankee » Gespeichert

Ich stimm nicht mit allen überein, aber mit vielen und sowieso unterhaltsam -> https://www.youtube.com/channel/UCr9qCdqXLm2SU0BIs6d_68Q

---

Aquí no se respeta ni la ley de la selva.
(Hier respektiert man nicht einmal das Gesetz des Dschungels)

Nicanor Parra, San Fabian, Región del Bio Bio, República de Chile
jww
Aktives Mitglied
***
Offline Offline

Geschlecht: Männlich
Beiträge: 178


« Antworten #3 am: 01.01.14 - 10:17:51 »

Danke für die Antworten.

Das Curl ist gar nicht so verkehrt, weil ich ohnehin recht viel in PHP programmiere. Allerdings keine Webseiten sondern das ist die Programmiersprache einer Hausautomation, die ich einsetze. Hauptproblem ist da, dass ich die Webseiten "analysieren" muss und die Links, die auf die Site selbst zeigen sowie die Bilder usw. finden downloaden und im HTML umbenennen muss.

Insofern ist mir die Webcrawler Idee dann doch angenehmer. Ich werde es mal damit versuchen.

Wollte mit der Frage nur vermeiden, dass es da vielleicht etwas "eingebautes" gibt, denn ich glaube mich zu erinnern, dass in ganz frühen Versionen, als der Server auch noch "Notes Server" hieß und die ersten Web-Sachen kamen (V3 oder V4??, ich erinnere mich noch recht gut an die "Chille Templates"), solch ein Prozess vorhanden war, mit dem man die Website "exportieren" konnte.

Also werde ich wie gesagt mal Webcrawler ausrobieren.

Danke nochmals und Happy New Year an alle Forumsmitglieder
Gespeichert

Notes ist klasse - und ab und an zum auf den Mond schiessen.
pram
Gold Platin u.s.w. member:)
*****
Offline Offline

Geschlecht: Männlich
Beiträge: 1169



WWW
« Antworten #4 am: 01.01.14 - 13:37:50 »

Ich mache das immer mit
Code:
wget -m -np http://deineseite.de/
Dies lädt eigentlich ziemlich zuverlässig alle verlinkten Seiten runter, sofern es sich nicht um irgendwelche dynamischen AJAX-Dinge etc. handelt.
-m für mirror
-np für no-parent (kein Verlassen der Haupt-URL)

=> wget.exe gibts auch für Windows

Frohes neues Jahr
Roland
Gespeichert

Roland Praml

IBM Certified Application Developer - Lotus Notes and Domino 8
Ich verwende das Foconis Object Framework
Seiten: [1] Nach oben Drucken 
« vorheriges nächstes »
Gehe zu:  


Einloggen mit Benutzername, Passwort und Sitzungslänge

Powered by MySQL Powered by PHP Powered by SMF 1.1.21 | SMF © 2006, Simple Machines Prüfe XHTML 1.0 Prüfe CSS
Impressum Atnotes.de - Powered by Syslords Solutions - Datenschutz | Partner: