Es ist lang her, dass ich mich mit Kernel-Methoden beschäftigt hab, also hab ich nicht mehr das beste Wissen hier. Prinzipiell sollte sich durch Dimensionserhöhung irgendwann jede Menge von Datenpunkten linear separieren lassen.
Hier auf Stackoverflow schreibt jemand, dass man mit ein paar Einschränkungen allgemein sagen kann: Ein Featureraum mit 2*l Datenpunkten ist in der Dimension 2*l - 1 linear separierbar.
Ich glaube ehrlich gesagt, dass dürfte auch schon die allgemeine, untere Schranke für die minimal benötigte Dimensionalität sein - wenn man über den Datensatz nichts weiter weiß, als die Anzahl der enthaltenen Punkte.
In der Praxis wird das aber aber natürlich total effizient sein und die Dimension deutlich niedriger sein.
Was ich nicht ganz verstehe, ist deine Hypothese am Ende: m ~ l^log(n) .
log(n) wäre ja eine Niedrigere Dimension, als die des ursprünglichen Raumes. Oder hab ich deine Notation da falsch verstanden?![]()