Jak informuje dziennik „The Wall Street Journal”, powołując się na wewnętrzny dokument Apple, koncern obawia się, że pracownicy korzystający z tego typu programów jak ChatGPT, mogą ujawnić poufne dane. Apple przekazał również swoim pracownikom, aby nie korzystali z Copilot GitHub należącego do Microsoftu, który automatyzuje pisanie kodu oprogramowania.
Projektem Apple w zakresie sztucznej inteligencji kieruje John Giannandrea, którego koncern ściągnął z Google w 2018 r.
W zeszłym miesiącu OpenAI, twórca ChatGPT, wprowadził „tryb incognito” dla swojego systemu, który nie zapisuje historii rozmów użytkowników ani nie wykorzystuje jej do ulepszania sztucznej inteligencji. W efekcie wzrosła kontrola nad tym, w jaki sposób chatboty zarządzają danymi milionów użytkowników, wcześniej powszechnie wykorzystywanych do ulepszania lub „trenowania” sztucznej inteligencji choćby w potocznym języku.
W czwartek firma OpenAI wprowadziła aplikację ChatGPT na system iOS firmy Apple w Stanach Zjednoczonych. Firmy zgodnie nie odpowiedziały na prośbę o komentarz do potencjalnego ograniczania korzystania z zewnętrznych rozwiązań przez Apple.
Czytaj więcej
Sam Altman, 38-letni szef OpenAI, powiedział amerykańskim senatorom, że potrzebne są regulacje m.in. w takich kwestiach jak zapobieganie dezinforma...
ChatGPT, stworzony przez OpenAI i wspierany przez Microsoft, to chatbot wywodzący się z tak zwanego dużego modelu językowego, który jest w stanie odpowiadać na pytania, pisać eseje i wykonywać inne zadania na sposób coraz bardziej zbliżony do człowieka.
Gdy ludzie korzystają z tych modeli, dane są odsyłane z powrotem do programisty w celu umożliwienia dalszych ulepszeń, co stwarza możliwość niezamierzonego udostępniania zastrzeżonych lub poufnych informacji przez organizację. OpenAI ujawniło w marcu, że tymczasowo przełączyło ChatGPT w tryb offline, ponieważ błąd pozwalał niektórym użytkownikom zobaczyć tytuły z historii czatów użytkownika.
Rzeczniczka OpenAI zwróciła uwagę na ogłoszenie z zeszłego miesiąca, w którym firma wprowadziła możliwość wyłączenia historii czatów przez użytkowników, co według firmy zablokowałoby możliwość trenowania modelu AI na tych danych.
Apple jest znane z rygorystycznych środków bezpieczeństwa, które chronią informacje o przyszłych produktach i dane konsumentów. Wiele organizacji również zaczęło obawiać się tej technologii, ponieważ jej pracownicy zaczęli używać jej do wszystkiego, od pisania e-maili i materiałów marketingowych po kodowanie oprogramowania. JPMorgan Chase i Verizon wprowadziły zakaz używania takich narzędzi.
Amazon.com wezwał swoich inżynierów, którzy chcą używać ChatGPT do pomocy w kodowaniu, do korzystania z własnego wewnętrznego narzędzia AI.
Firma Apple zwróciła ostatnio szczególną uwagę na nowe oprogramowanie pojawiające się w sklepie iPhone App Store, które wykorzystuje generatywną sztuczną inteligencję. Gdy twórca aplikacji Blix próbował zaktualizować swoją aplikację e-mail BlueMail o funkcję ChatGPT, Apple tymczasowo zablokował tę aktualizację, twierdząc, że może ona potencjalnie wyświetlać nieodpowiednie treści dzieciom.
Zespół recenzentów Apple poprosił programistę o podniesienie ograniczenia wiekowego aplikacji do 17 lat i starszych - ustalono na 4 lata i więcej - lub uwzględnienie filtrowania treści. Gdy Blix zapewnił Apple, że już zaimplementował filtrowanie treści w funkcji ChatGPT, aplikacja została zatwierdzona.