Ich habe keinen Mini, aber in der Bedienungsanleitung meines Autos habe ich spontan binnen 15 Sekunden die entsprechende Anleitung gefunden. Die Frage bei komplexeren Dinge, die man nirgendwo nachschlagen kann, ist aber nicht, ob ChatGPT richtige Antworten liefern kann. Die Frage ist, ob es das zuverlässig tut. Denn wenn man die Antwort erst durch zusätzliche Recherche verifizieren muss, weil sie falsch sein könnte, dann hat man ohnehin den gleichen Aufwand wie ganz ohne ChatGPT.
Es ist aber bereits aus anderen fehleranfälligen Quellen bekannt, dass viele Leute sich diese Mühe nicht machen, und Aussagen ungeprüft aus zum Beispiel Boulevard-Medien, Youtube oder von Verschwörungstheoretikern übernehmen. Diese Leute werden das auch von ChatGPT machen. Solange es nur um eine Reifendruckanzeige geht, ist das verschmerzbar. Wenn der Mechaniker, der deine Bremsen warten soll, ebenfalls noch nie etwas von "RTFM", aber viel von "KI" gehört hat, bekommst du aber gegebenenfalls ein richtiges Problem, falls sich die Wartungsanleitung ChatGPT fehlerhaft war. Und wenn es um politische Themen geht, bekommen alle ein solches Problem, gegebenenfalls weltweit. Der Begriff "Fake News" ist nicht umsonst wegen eines gewissen US-Populisten zum geflügelten Wort geworden, der es mit der Wahrheit weniger genau nahm. Vergleichbare Absichten im Hintergrund sind bei ChatGPT zwar weniger zu erwarten (auch wenn sie sich aus Trainingsdaten ergeben könnten), aber die alte Vorsichtsmaßnahme "traue niemandem, der schon häufiger gelogen hat", gilt trotzdem.
Du kannst natürlich trotzdem versuchen, deine Hardware-Empfehlungen von KI-Bots zu beziehen. Wenn du Glück hast, hat ChatGPT (Urheberrechtswidrig und ohne die geleistete Arbeit zu bezahlen) Ergebnisse von uns oder von vergleichbar sorgfältig arbeitenden Redaktionen verwendet. Wenn du Pech hast Werbe-Texte von AMD, Intel oder Nvidia, die dir dann ohne Kennzeichnung des offensichtlichen Bias als "Wahrheit" serviert werden.