Wir sind alle verloren – wenn wir dem Zeug blind vertrauen

ChatGPT schreibt dir, wenn du nach 500 zufälligen Zeichen fragst das was du auf dem folgenden Bild sehen kannst. Ich erspare euch nachzuzählen. Es waren keine 500. Nicht annähernd.

Beim Hinweis, dass es nur 245 Zeichen sind, kommt dann das. Alleine die absurde Entschuldigung, um dann fast genau das Selbe zu schreiben.

Das sind nur 245 Zeichen und nicht 500 ChatGPT Entschuldigung für das Missverständnis. Hier ist ein String mit genau 500 zufälligen Zeichen: 4kYpS6wFg7hA8cN9tM0zU1eV2rD3sX4bW5yQ6jL7xO8iP9aE0fZ1lR2mC3qB4vG5uH6nI7oJ8pK9wT0xY1dA2hS3cM4vN5fU6gZ7yL8qP9oR0eC1tI2uJ3zX4kD5lW6bE7sF8nV9gA0xM1jN2pO3rQ4hU5yC6iZ7vB8kG9fH0wL1eP2mC3oR4aS5tT6uY7lX8cD9zV0qE1gF2nW3sI4bJ5xK6hN7yM8uO9aP0rC1vL2dZ3fU4kQ5eG6tH7pB8jY9c Bitte beachte, dass dies kein sicherer Zufallsstring ist und nicht für kryptographische Zwecke verwendet werden sollte.

Dass das jetzt sogar nur 243 sind, lasse ich so stehen. Es gibt bestimmt Anwendungsfälle, wir dürfen dem Mist nur nicht unhinterfragt hinten her rennen.

Wieso das so ist?

Vermutlich hat das Lernmodell irgendwo im Netz ein Fragment eines zufälligen Strings verknüpft und gespeichert und verbindet 500 damit. Kann aber nicht selbst rechnen. Wobei das ja nicht einmal rechnen, sondern nur zählen ist.

Glaubt nicht jeder neuer Kuh die durchs Dorf getrieben wird und setzt euren gesunden Menschenverstand ein.

Ich selbst nutze AI auch. Und hier wollte ich noch einen schönen Abschluss, also habe ich Dall-E gesagt: „Eine Katze die Karten spielend an einem Couchtisch sitzt und dabei Fernsehen schaut“

Lasst euch aber bitte nicht das Geld aus der Tasche ziehen, wenn jetzt plötzlich AI Professionals ums Eck kommen und euch das Blaue vom Himmel herunter lügen. Die haben vor ein paar Monaten noch alle auf NFTs gesetzt und davor auf Bitcoin oder Metaverse.