okay, mal der reihe nach:
zu 1. ja, das wäre auch unsichtbarer text insofern du z.b. für den body als hitergrundfarbe weiß nimmst. die robots (wenigstens einige) vergleichen die prozentuale abweichung der font und hintergrundfarbe.
zu 2. das best eist eigentlich, wenn du für jede seite eigene keywords erzeugst, die dann auch im inhalt zu finden sind. es kommt je nach spieder auch nicht unbedingt darauf an, daß diese worte direkt hintereinander im text zu finden sind, sondern, daß sie überhaupt im text sind, je weiter vorne, desto besser natürlich. also sollten deine keywords die jeweilige seite charakterisieren.
3. natürlich sollte der robot die folgenden seiten indizieren, ansonsten wären sie witzlos, hier hast du auch die möglichkeit dich mit meta und mit inhalt auszutoben. damit kein user sich darauf verirrt sollte in jeder dieser seiten ein javascript einthalten sein, daß den user umleitet was uns zu 4. führt...
4. solltest du immer alternativ noch einen link mit in die seite (direkt am anfang) plazieren, über den dei leute auf die eigentlich präsenz gelangen, aber der anteil an nicht-javascriptlern beträge gerade mal 2% aller surfer, die meisten werden also direkt umgeleitet.
eine gute implementierung für solche sachen bietet eine serverseitige scriptsprache wie z.b. php, perl o.ä. man kann die seiten direkt abhängig vom client erstellen lassen. z.b. wenn der USER_AGENT sich als spider oder robot identifiziert kannst du eine seite mit guten metatags erstellen lassen, direkt aus den inhalten der seite extrahiert und den inhalt ohne formatierungen in die seite setzen lassen. für normale user kannst du die metas sparen und das übliche layout verwenden.