Entdecke jetzt die heißesten PS5 Angebote
Alex Nichiporchik, CEO des Hello Neighbor-Herausgebers TinyBuild, hat während einer Keynote für Aufsehen gesorgt, in der er potenzielle Einsatzmöglichkeiten von KI-Tools am Arbeitsplatz skizzierte, darunter die Überwachung von Slack-Nachrichten und Meeting-Transkriptionen von Angestellten, um “potenziell problematische Akteure” zu identifizieren – eine Diskussion, die, wie er später betonte, “hypothetisch” war…
Nichiporchik (wie WhyNowGaming berichtet) sprach diese Woche auf der Develop: Brighton Konferenz, in einem Vortrag mit dem Titel “AI in Gamedev: Is My Job Safe?”, der eine “eingehende [look] darüber, wie [TinyBuild] KI in der täglichen Praxis eingesetzt werden kann, um die Effizienz exponentiell zu steigern”.
Ein Teil der Präsentation, der sich auf “KI für HR” konzentrierte, hat sich als besonders umstritten erwiesen, seit sich die Nachricht über seinen Inhalt im Internet verbreitet hat. Hier erläuterte Nichiporchik, wie KI von der Personalabteilung eingesetzt werden könnte, um Burnout (später als Synonym für “Toxizität” bezeichnet) bei Mitarbeitern zu erkennen, indem zunächst “potenziell problematische Teammitglieder” identifiziert werden und dann ihre Slack-Nachrichten und automatischen Transkriptionen von Google Meet und Zoom über Chat GPT gesammelt und ausgewertet werden, was er als “I, Me Analysis” bezeichnet;
“Es besteht ein direkter Zusammenhang zwischen der Häufigkeit, mit der jemand in einer Besprechung ‘ich’ oder ‘mich’ benutzt”, so Nichiporchik, “und der Wahrscheinlichkeit, dass die Person einen Burnout erleidet.”
Wenn du Mitarbeiter/innen identifizierst, die “zu viel über sich selbst reden”, die “zu viel Zeit in Meetings vergeuden”, so dass “nichts erledigt wird”, und die in 360-Grad-Beurteilungen negatives Feedback erhalten, ist es laut Nichiporchik möglich, “jemanden zu identifizieren, der am Rande des Ausbrennens steht, der der Grund dafür sein könnte, dass die Kolleg/innen, die mit dieser Person zusammenarbeiten, ausbrennen, und du könntest es frühzeitig erkennen und beheben”;
An dieser Stelle wird die genaue Reichweite von Nichiporchiks etwas dystopischer Vision unklar. WhyNowGaming zitiert den CEO mit den Worten, dass TinyBuild mit der Technologie rückwirkend bei Mitarbeitern experimentiert habe, die das Unternehmen bereits verlassen hatten, nun aber damit beginne, sie proaktiv zu nutzen, wobei er auf einen “ersten Fall letzte Woche hinwies, bei dem ein Studioleiter nicht in der Lage war, uns zu informieren. Hätten wir einen Monat gewartet, hätten wir wahrscheinlich kein Studio mehr.”
In einer Erklärung, die der Website später zur Verfügung gestellt wurde, widerspricht Nichiporchik jedoch der Darstellung von WhyNowGaming und betont, dass “der HR-Teil meiner Präsentation hypothetisch war, daher auch der Verweis auf Black Mirror” und dass TinyBuild “keine Mitarbeiter überwacht oder KI einsetzt, um problematische Mitarbeiter zu identifizieren”
“Ich hätte es deutlicher machen können, wenn ich es aus dem Zusammenhang gerissen hätte”, sagte Nichiporchik in einer Erklärung, die der Publikation nach ihrem Bericht zur Verfügung gestellt wurde. “Wir überwachen keine Mitarbeiter und nutzen keine KI, um problematische Mitarbeiter zu identifizieren. In der Präsentation wurde erforscht, wie KI-Tools eingesetzt werden können, und einige davon sind wirklich unheimlich. Ich wollte herausfinden, wie sie zum Guten eingesetzt werden können.”
Die Schlussfolgerung scheint jedoch ziemlich einfach zu sein. Unabhängig von Nichiporchiks Absichten und den internen Praktiken von TinyBuild gibt es zweifellos andere CEOs, die den Einsatz von KI auf mindestens ebenso ruchlose Weise in Betracht ziehen. KI ist derzeit ein heißes Thema, und wie Chris Tapsell von Eurogamer kürzlich herausfand, ist es eines, bei dem die Menschen in der Spielebranche in allen Disziplinen sehr gemischte Gefühle haben – aber es ist eindeutig ein Thema, das nicht verschwinden wird.
Entdecke jetzt die neuesten PS5 Spiele auf Amazon
Source link