Ich bin leider aus der jQuery Fraktion aber dieser Link (auf Englisch) befasst sich mit der Problematik.
http://www.digitalsanctuary.com/tech-blog/general/why-i-like-jquery-over-dojo.htmlSoviel ich weiss ist in den XPages so etwas schon berücksichtigt (Partial Refresh / Partial Update)
Zum Beispiel hier:
http://www-10.lotus.com/ldd/ddwiki.nsf/dx/XPages_Partial_Update.htmhttp://www.youtube.com/watch?v=KQ8JFhi2p1Mhttp://dominoextnd.blogspot.com/2009/11/xpages-loading-images-and-masking.htmlAllerdings wird hier oft nicht direkt das Laden von externen Dateien direkt gezeigt, der letzte Link sollte aber stark in Deine Richtung gehen.
Nachteile von Ajax Lösungen sind.
Die Url im Browser ändert sich beim Update nicht (es gibt allerdings Erweiterungen bzw. Hacks mit dem "#" Tag.
Wenn es sinnvoll ist Seiten zu "bookmarken" muss man die Bookmark Url in das Design (den Ajax Request) integrieren.
Einige Plug-Ins, zum Beispiel Flash Integration in Verbindung mit Lightbox Effekten zicken rum.
Mit einem Ajax Request wird trotzdem immer die ganze Seite geladen, dann gefiltert und der Inhalt in die vorhandene Seite eingefügt.
Ist die Verbindung des Benutzers langsam führt das daher nicht immer zu einer Beschleunigung.
In jQuery würde es so funktionieren.
Man erzeugt eine ganz normale Linkliste mit Links auf die komplett neue Seite und weist diesen Link zum Beispiel eine CSS Klasse zu.
jQuery wird auf diese Klasse gebunden und lauscht dem Click Event.
Falls eine Url aktiviert wird, läd jQuery die Url per Ajax Request, filtert dann evtl. ein spezielles Element (z.B. ein DIV und deren Unterelemente) und ersetzt dann ein vorhandenes Element gegen das neue Element.
Das ganze funktioniert dynamisch da die Url im Link ja vorhanden ist.
Das Laden der Seite über den Link kann man am Schluss unterbinden (der Inhalt wurde ja bereits per Ajax aktualisiert).
Vorteil dieser Lösung ist.
Funktioniert Javascript aus irgendwelchen Gründen nicht lädt die Seite die Links ganz normal.
Gruß
Henning