Microsoft, das durch die großen Schritte, die es in letzter Zeit im Bereich der künstlichen Intelligenz unternommen hat, eine gute Unternehmenskommunikation mit OpenAI unterhält, hat eine interessante Entscheidung bezüglich des Modells der künstlichen Intelligenz seines Geschäftspartners ChatGPT getroffen. Diese Entscheidung ist für das Vertrauen in künstliche Intelligenz von großer Bedeutung. Hier sind die Details
Microsoft verbietet seinen Mitarbeitern die Nutzung von ChatGPT!
Laut CNBC hat Microsoft vor kurzem die Nutzung von ChatGPT durch Mitarbeiter des Unternehmens aufgrund von Bedenken in Bezug auf „Datenschutz und Sicherheit“ untersagt. Im Rahmen dieses Verbots wurde den Mitarbeitern des Unternehmens der Zugriff auf das Modell über Firmengeräte untersagt. Diese Entscheidung des Unternehmens, das vor kurzem einen 3-Milliarden-Dollar-Investitionsvertrag mit OpenAI unterzeichnet hat, hat alle, die sie gesehen haben, erstaunt.
Die von dem Unternehmen, das bei den künstlichen Intelligenzdiensten, die es seinen Nutzern anbietet, mit ChatGPT zusammenarbeitet, angewandte Beschränkung stieß auf große Resonanz, nachdem sie an die Öffentlichkeit gedrungen war. Nutzer, die sahen, dass Microsoft ChatGPT nicht einmal innerhalb des Unternehmens selbst vertraute, äußerten ihre Besorgnis über ihre eigene Sicherheit.
Als Microsoft die Reaktionen der Öffentlichkeit wahrnahm, machte es einen Schritt zurück. Mit dem Hinweis, dass ChatGPT versehentlich im Rahmen eines Tests eingeschränkt wurde, betonte das Unternehmen noch einmal seinen Ansatz, der den Einsatz von OpenAI-Produkten fördert. Er erklärte auch, dass die betreffende Zugangsbeschränkung entfernt worden sei.
Obwohl Microsofts Erklärung die Situation klärt, haben viele Nutzer erklärt, dass sie diese Erklärung nicht aufrichtig finden. Wie das Unternehmen vorgehen wird, um die fraglichen Fragezeichen zu beseitigen, gehört zu den neugierigen Details. Was denken Sie über dieses Thema? Teilen Sie uns Ihre Meinung in den Kommentaren mit.