Zitat Zitat von July Beitrag anzeigen
Hier gab es übers Semester verteilt nur 4 Hausaufgaben, recht einfach, keine großen Probleme, weil man ja schon Programmieren konnte und man nur etwas andere Syntax hatte
Ein Trugschluß
Nur weil man ein paar Semester programmiert, heißt es lange nicht, dass man gut und effizient programmieren kann.
Ein Hobbyprogrammierer, der mehrere Jahre programmiert, muss nicht in der Lage sein, z.B. ein B*-Baum zu kennen, oder er kann nicht konkret erklären, was der genaue Unterschied zwischen einem Array und einer Arraylist ist, oder er schreibt Seitenweise Spaghetticodes, weil für ihn die ordentliche Strukturierung zu lange dauert.

Die Programmiersprachen unterscheiden sich auch nicht nur an der Syntax. Wie du schon selbst gesehen hast, gibt es auch da gravierende Unterschiede, wie z.B. ein nicht vorhandener Garbage Collector.

Außerdem ist Programmieren nur ein Bruchteil der Arbeit. Die meiste Zeit geht beim Analysieren und Zerlegen des Problems drauf. Das Implementieren ist nachher schnell erledigt. Wer aber nicht in der Lage ist, die Probleme in möglichst kleine Teilprobleme zu zerlegen, der wird es als Softwareentwickler schwer haben, auch wenn der die Sprache kennt.

Zitat Zitat von July Beitrag anzeigen
Informatik 3 - Datenbanken. Ich liebe Datenbank mitsamt ER-Diagrammen und was es nicht alles gibt.
Och, das kann ich dir abgewöhnen ^^
Derzeit arbeite ich an einer sehr komplexen Anwendung für Banken. Dort ist es Standard, dass man mal so über 10 Tabellen joinen muss, die erstmal in einem Vorlauf aggregiert werden müssen. Da kann es schon mal vorkommen, dass so eine SQL Abfrage zwei oder mehr Stunden dauert, bei über 100.000 Datensätze. Das ER-Modell passt knapp auf eine DIN A0 Seite. Da kommt dann keine Freude auf. Schon gar nicht, wenn keiner so recht weiß, was da überhaupt berechnet werden soll. Selbst die Banken wissen es nicht. Das ist dann echt so, wie bei Jugend Forscht, nur dass man noch eine Augenbinde umgebunden bekommt. ^^
Bei der Aggregation ist dann auch so ziemlich alles drinnen, was so die Mathematik hergibt.

Was die Computergrafik angeht, hat sich in den letzten 20 Jahren wirklich nicht viel geändert. Um die Grundlagen der Computergrafik zu verstehen, da reichen auch wirklich Unterlagen die 20 Jahre oder älter sind. Das, was man vor 20 Jahren in der Computergrafik verwendet hat, findet man heute immer noch wieder. Viele bestehende Algortihmen sind so performant, dass es sich nicht lohnt, dort was besseres zu finden, bzw. es wurde in vielen Bereichen auch noch nichts besseres gefunden. Es wird z.B. immer noch der Bresenham-Algorithmus verwendet, um eine Linie oder ein Kreis zu rastern und diesen gibt es schon seit 1962. Auch die komplette Rendering Pipeline ist nichts neues. So arbeitete z.B. OpenGL/DirectX und die Grafikchips schon immer und ich sehe auch keinen Grund, wieso man es ändern sollte. Oder für Transformationen und Translationen hat man auch immer die Lineare Algebra und entsprechende Matrizen zur Hilfe genommen.
Die bekanntesten Beleuchtungsmodelle, die heute hauptsächlich verwendet werden, entstanden in den 70ern. Heutzutage werden eigentlich nur noch diese Beleuchtungsmodelle optimiert und verfeinert, um sie physikalisch plausibler zu machen. Keiner wird sich hinsetzen, und sich ein neues Modell ausdenken. Wozu auch?