• Es ist aber mehr oder minder vor allem ein Trend verschlafen Problem, weil alle Welt aktuell total auf KI abfährt und wer da nicht dabei ist, hat dadurch automatisch verloren. Wieviel Sinn es macht KI Berechnung auf einer CPU durchzuführen ist da eine ganz andere Sache. Alle Programme die ich für KI lokal versucht habe nutzen die GPU nicht die CPU. Ich meine, wer lässt sowas wie ChatGPT lokal laufen? Da kann man gar nicht die Datenmengen lokal vorhalten um das effektiv zu nutzen.

    Des weiteren schielen alle auf die Apple Prozessoren und denken, diese ARM Multifunktionschips sind ja jetzt schon viel schneller. Das stimmt aber eben gar nicht, jedenfalls nicht wenn man bei X86 eben auf die Kombination von CPU und GPU setzt, was übrigens gar nicht teurer ist, diese Apple M Prozessoren würden auch etliche 100 bis 1000 Euro kosten, für das Geld bekommt man bei X86 aktuell immer noch mehr Leistung.

    Muss man halt sehen, welche Funktionen als "Coprozessor" in einer reinen CPU am Ende wirklich Sinn machen. KI ist es für mich wie gesagt eher nicht.