Die curl/wget Lösung find ich schon mal ganz sinnvoll...
Jedenfalls deutlich sinnvoller als das ganze nochmal in HTML abzutippen.
Allerdings musst Du dann die 20 Seiten per URL ansteuern.
Noch deutlich besser wär aber ein Webcrawler.
Das heisst ein Ding, das den einzelnen Links auf der Seite nachgeht, die entsprechende html-Seite runterläd und auf der Festplatte abspeichert.
Vielleicht findest Du auch einen Webcrawler als Tool, d.h. etwas, was Du ohne Kenntnisse einer weiteren Programmiersprache in deinen Prozess integrieren kannst.
Das hier könnte brauchbar sein:
http://www.httrack.com/****
Exkurs 1
Ich persönlich würd dafür ein entsprechendes Java OpenSource Projekt suchen.
https://code.google.com/p/crawler4j/ sieht auf den ersten Blick brauchbar aus. Dann würd ich das runterladen und in eine moderne IDE laden, d.h. InteliJ IDEA, Netbeans täts auch. Eclipse zur Not auch, entfremdet aber den IT Arbeiter zunehmend von seinem eigentlichen Selbst.
****
Die href und src Attribute in den img, css, js und Hyperlinks würd ich mit den Suchen- und Ersetzen Fähigkeiten der IDE (bei Tool Editor) suchen und ersetzen.
****
Exkurs 2
Bei guter Laune würd ich das Suchen und Ersetzen per groovy Script automatisieren.
Bei sehr guter Laune würd ich versuchen, aus crawler4j ein eigenes groovy Projekt zu machen.
****