Na początku tego miesiąca autonomiczny pojazd testowy zjechał ze swojego pasa, aby ominąć wjeżdżający samochód, tylko po to, by uderzyć w motocykl znajdujący się na pasie, na który wjechał. Jeśli to wszystko, co wiesz o tej historii, brzmi to jak rodzaj zagadki wyboru moralnego, która często się pojawia dyskusje na temat zachowań sztucznej inteligencji: pomiędzy dwoma złymi wynikami, w jaki sposób maszyna decyduje, który kurs wybrać realizować? Czy skręcasz, aby uniknąć uderzenia pieszego przechodzącego przez ulicę, jeśli oznacza to przejechanie rowerzysty na ścieżce rowerowej?
Zawartość
- Pomocna, robotyczna dłoń
- Wierzchołek góry lodowej
Tylko, że wcale tak się nie stało. Pojazdem, prowadzonym przez Waymo, za kierownicą siedział „kierowca bezpieczeństwa”, który przejął ręczną kontrolę nad samochodem na chwilę przed wypadkiem. Reagując na nagły ruch łączącego się samochodu, kierowca skręcił, aby go ominąć i po prostu nie zauważył motocyklisty jadącego na sąsiednim pasie. Gdyby kierowca nic nie zrobił, prawdopodobnie tak się stało autonomiczny pojazd uniknąłby obu potencjalnych wypadków.
Polecane filmy
To, że sztuczna inteligencja i automatyzacja ostatecznie sprawią, że nasze drogi staną się bezpieczniejsze, jest obecnie dobrze rozumianym faktem, nawet jeśli wielu z nas ma trudności z pełnym przyjęciem idei samochodów autonomicznych. Tłumaczenie języka, kupno i sprzedaż akcji, prognozowanie pogody – to wszystkie obszary, w których wkład sztucznej inteligencji przynosi oczywiste korzyści. Ale rozwój sztucznej inteligencji nie dzieje się tylko w miejscach, gdzie błędy ludzkie są powszechne; daleko od tego, A.I. został już przeszkolony, aby robić lub przynajmniej naśladować jedną z rzeczy, która czyni nas ludźmi: naszą kreatywność.
Powiązany
- GoPro Hero 10 Black: 7 rzeczy, które kocham i 2, których nie
- Nie modernizuj swojego aparatu. Nie sprawi to, że będziesz lepszym fotografem
- Selfie zwykle nie przeradzają się w bójki, ale w tym przypadku tak się stało
Pomocna, robotyczna dłoń
W październiku o sztuczna inteligencja Obraz sprzedany na aukcji za ponad 400 000 dolarów. Sztuczna inteligencja, z której korzystał francuski kolektyw artystyczny Obvious, była przeszkolony na 15 000 portretów powstały między XIV a XX wiekiem, badając ich style i łącząc je z własnym. To kreatywność oparta na brutalnej sile. Maszyna nie czuje, ale też nie śpi; daj mu wystarczającą ilość danych do przetworzenia, a może dać ci coś, co szczerze wydaje się kreatywne.
Zrozumiałe jest, że ten typ sztucznej inteligencji. może martwić pracujących twórców, ale nawet gdy maszyny piszą własne skrypty i produkować całe albumy, tak naprawdę w najbliższym czasie nie będą w stanie zastąpić ludzkich artystów. A w miarę zanikania nowości pojawiają się poważne wątpliwości, czy inne dzieła sztuki wyprodukowane przez sztuczną inteligencję zyskają takie samo uznanie jak dzieła Obvious.
Na szczęście „bardziej przyjazne” sztuczne inteligencje już tu są i nie po to, aby wykonywać za nas pracę, ale po to, aby ułatwić nam pracę. Sztuczna inteligencja zajmowała centralne miejsce przez ostatnie dwa lata podczas corocznego pokazu Adobe MAX konferencja zorganizowana przez firmę stojącą za Photoshopem, Lightroomem, After Effects i wieloma innymi kreatywnymi rozwiązaniami Aplikacje. Sztuczna inteligencja Adobe silnik nazywa się Sensei i obsługuje teraz wiele narzędzi w całym pakiecie Creative Cloud.
Sztuczna inteligencja został przeszkolony na 15 000 portretów wykonanych między XIV a XX wiekiem. To kreatywność oparta na brutalnej sile.
W wywiadzie dla Digital Trends w MAX w tym rokuTom Hogarty, starszy dyrektor ds. obrazowania cyfrowego w firmie Adobe, porównał pojawienie się sztucznej inteligencji do do przejścia z komputerów osobistych na urządzenia mobilne jako narzędzia twórcze. Adobe właśnie się pokazało Photoshop na iPada I Premierowy pośpiech, aplikacja do edycji wideo na wiele urządzeń.
„To była wstrząsająca zmiana koncentracji zasobów i priorytetów” – powiedział Hogarty Digital Trends. „Myślę, że przejście na A.I. a ML [uczenie maszynowe] jest obecnie równoznaczną zmianą tektoniczną w branży”.
Adobe wyobraża sobie Sensei jako wypełnienie luki między człowiekiem a maszyną, aby zadanie, które jest koncepcyjnie proste, ale trudne mechanicznie, było równie łatwe do wykonania, jak myślenie.
Ludzie są z natury dobrzy w niektórych zadaniach, w których maszyny tradycyjnie radzą sobie słabo, na przykład w rozpoznawaniu obiektów na fotografii. Z drugiej strony komputery świetnie radzą sobie z katalogowaniem, modyfikowaniem lub usuwaniem i zastępowaniem tych obiektów – ale człowiek musi je jasno zdefiniować najpierw albo poprzez dodanie słów kluczowych w przypadku katalogowania, albo poprzez ustalenie granic obiektu poprzez zaznaczenie i maskowanie proces.
Te mechaniczne zadania często wymagają szczególnej dbałości o szczegóły, a ich wykonanie zajmuje człowiekowi frustrująco dużo czasu. Dodawanie słów kluczowych, warunku wstępnego porządkowania zdjęć na podstawie ich treści, jest tak trudnym procesem, że niewielu fotografów robi to rzetelnie. Menedżer produktu Lightroom, Josh Haftel, dobrze zna tę walkę.
„Jako człowiek będziesz prawdopodobnie znacznie lepiej [niż komputer] potrafił powiedzieć: «krzesło, aparat, telefon, okulary przeciwsłoneczne, laptop», ale zajmie ci to całą wieczność” – Haftel powiedział Digital Trends.
Ale co by było, gdyby komputer był równie dobry w dodawaniu słów kluczowych do zdjęć jak Ty? A co, jeśli usunięcie obiektu wymagało niewiele więcej niż kliknięcie go? Dzięki wyszukiwaniu z włączoną sztuczną inteligencją w programie Adobe Lightroom CC i narzędziu Wybierz temat w programie Photoshop CC to marzenie staje się rzeczywistością. Narzędzia te nie są jeszcze w 100% dokładne, ale już dają twórcom szybki start w czasochłonnych zadaniach.
Chociaż funkcja wyszukiwania oparta na technologii Sensei była dostępna od początku w programie Lightroom CC, w tym roku poczyniła ona duży krok naprzód dzięki dodaniu funkcji rozpoznawania twarzy. Sensei potrafi wykrywać i organizować ludzi — i inne obiekty — z szybkością dziesiątek tysięcy obrazów na sekundę. Potencjalna oszczędność czasu jest ogromna.
Sztuczna inteligencja Adobe wysiłki wykraczają również poza nieruchome obrazy. Nadchodzący Narzędzie do wypełniania z uwzględnieniem zawartości w programie After Effects faktycznie usunie obiekt z każdej klatki wideo i płynnie wypełni tło przy minimalnym udziale użytkownika. Zobaczenie tego w akcji jest trochę oszałamiające, jak obserwowanie magika wyciągającego królika z kapelusza – wiesz, że jest na to wyjaśnienie, ale nie możesz go zrozumieć.
Wierzchołek góry lodowej
sztuczna inteligencja nie jest magią; to nauka. Mimo to nikt tak naprawdę nie wie dokładnie, jak to zrobić sztuczna inteligencja robi to, co robii to jest potencjalnie przerażająca przesłanka. Komputer sam się trenuje; od człowieka wymagane jest jedynie przekazanie mu wstępnego zestawu danych szkoleniowych. Co ciekawe, jeśli nie całkowicie zaskakujące, to właśnie w tych danych szkoleniowych często pojawiają się problemy w sztucznej inteligencji. programowanie w formie przedostawania się ludzkich uprzedzeń do maszyny. Jeśli dane są stronnicze, powstały algorytm może podejmować niedokładne decyzje, nawet seksistowskie lub rasistowskie.
sztuczna inteligencja nie jest magią; to nauka. Mimo to nikt tak naprawdę nie wie dokładnie, w jaki sposób A.I. robi to, co robi.
„Naprawdę trudno będzie pozbyć się uprzedzeń, zawsze będą one obecne” – powiedział prasie Jamie Myrold, wiceprezes Adobe ds. projektowania doświadczeń, podczas targów MAX 2018. „Ale zdecydowanie skupiamy się na tym i jest to kolejna umiejętność, którą będą musieli posiadać projektanci uważać za coś, co z pewnością jest ich własnością, a nie tylko pozwalać czarnej skrzynce algorytmu straszyć ich."
Choć może to być przerażające, ta niepoznawalna natura sztucznej inteligencji to także sprawia, że jest to tak ekscytujące. Potencjał AI rozwiązywania problemów jest prawie nieograniczone i tak długo, jak mamy wdrożone środki umożliwiające identyfikację i korygowanie uprzedzeń, może zdziałać wiele dobrego, ułatwiając nam życie.
W przypadku twórców, szczególnie tych zarabiających na działalności twórczej, obawa pojawia się, gdy sztuczna inteligencja potrafi odpowiednio naśladować człowieka. Po co zatrudniać grafika, aby zaprojektował dla Ciebie nowe logo, skoro możesz po prostu podłączyć niektóre parametry do komputera i pozwolić mu wypluć takie, które jest w porządku?
Wciąż jesteśmy daleko od tej rzeczywistości, ale nie jest trudno spojrzeć na to, gdzie jesteśmy teraz i ekstrapolować ten scenariusz jako ewentualność. Już A.I. w Adobe Lightroom może automatycznie poprawiać zdjęcia — usuwając cienie, odzyskując światła, dostosowując ekspozycję i nasycenie — z zaskakującą biegłością.
Chociaż wdrożenie tego rozwiązania przez firmę Adobe ma na celu zapewnienie fotografom solidnego punktu wyjścia do dodatkowej edycji, inni programiści wyszli już poza to. Skylum, wcześniej Macphun, w swoim oprogramowaniu do edycji zdjęć Luminar ma wiele korekt opartych na sztucznej inteligencji, dzięki którym możesz robić wszystko, od automatycznie poprawiające niebo do dodania realistycznych promieni słonecznych do obrazu. Możesz teraz radykalnie zmienić zdjęcie przy minimalnej wiedzy na temat retuszowania zdjęć.
Nie musi to oznaczać problemów dla pracujących kreacji. Możemy tu dokonać porównań do rozwoju fotografii cyfrowej, edycji wideo na domowych komputerach PC, smartfonów i innych urządzeń dowolną liczbę innych technologii, które drastycznie obniżyły poprzeczkę w dostępie do profesjonalnych treści produkcja. Chociaż branże kreatywne były wielokrotnie remiksowane, zawsze przetrwały. To, czy są pod tym względem lepsi, czy gorsi, zależy od tego, kogo spytasz, ale ilość i różnorodność kreatywnych treści nigdy nie była większa niż obecnie.
I pomimo swoich sukcesów A.I. nadal stoi przed pewnymi istotnymi wyzwaniami. Funkcja Best Photos programu Adobe Lightroom, znajdująca się obecnie w wersji zapoznawczej, to kolejna technologia oparta na technologii Sensei, oferująca ogromny potencjał oszczędzania czasu. Analizuje Twoje obrazy pod kątem różnych parametrów, aby automatycznie wyświetlać najlepsze z nich, biorąc jednocześnie pod uwagę Twoje ręczne oceny. Nawet w początkowej fazie działa imponująco dobrze, ale pokazuje też obecne ograniczenia sztucznej inteligencji.
„Tam, gdzie uczenie maszynowe, przynajmniej dzisiaj, zawodzi, jest zrozumienie kontekstu emocjonalnego”.
„Tam, gdzie uczenie maszynowe, przynajmniej dzisiaj, zawodzi, jest zrozumienie kontekstu emocjonalnego” – wyjaśnił Haftel. „Więc maszyna nie wie, że to naprawdę ciemne, ziarniste zdjęcie to zdjęcie twojej babci i jest to ostatnie jej zdjęcie, jakie masz. I nigdy nie będzie w stanie tego stwierdzić.
Haftel szybko dodał: „Nie powinienem mówić nigdy – nigdy nie mów nigdy – ale przynajmniej dzisiaj nie może tego zrobić”.
Czy A.I. mieć ograniczenia? Czy kiedykolwiek osiągniemy plateau w AI? rozwój? Andrew Page z Nvidii, menedżer produktu w dziale technologii medialnych i rozrywkowych firmy, nie uważa tak. Serwery Nvidia obsługują wszystkie szkolenia Adobe Sensei i najnowsze szkolenia firmy Karty graficzne RTX obejmują rdzenie tensorowe zbudowane specjalnie do przyspieszania sztucznej inteligencji. polecenia. Nvidia wyraźnie widzi A.I. odgrywa ogromną rolę w jej przyszłości.
„Nadal jesteśmy w powijakach [AI]” – Page powiedział Digital Trends. „Ponieważ komputer w pewnym sensie uczy się, jak coś zrobić, tak naprawdę nigdy nie jest pewne, czy coś zostało zrobione. Podobnie jak my, ludzie, nigdy nie skończyliśmy się uczyć. Myślę, że widzimy dopiero wierzchołek góry lodowej tego, co A.I. może zrobić zarówno dla twórców, jak i innych branż”.
Jedną z potencjalnych zmian jest odejście od sztucznej inteligencji szkolonej na serwerze. do lokalnie wyszkolonej sztucznej inteligencji, która byłaby w stanie lepiej reagować na unikalne potrzeby lub styl artystyczny indywidualnego użytkownika. Kiedy uczenie maszynowe będzie można przeprowadzić na domowym komputerze, zamiast wymagać centrum danych, otworzy się przed sztuczną inteligencją nowe możliwości. rozwój. Na razie wymagania obliczeniowe i sam rozmiar zbiorów danych uczących sprawiają, że lokalne szkolenie jest trudne w przypadku wszystkich zadań z wyjątkiem najprostszych, ale prawdopodobnie z czasem to się zmieni.
To, jak to wszystko się potoczy, może zmienić naszą definicję kreatywności. Jak to ujął Haftel z Adobe, bez konieczności ręcznego używania oprogramowania do tworzenia dzieł sztuki: „Możemy skupić się na wyższym poziomie kreatywności. Nie wiemy, co to będzie, ale naszym zadaniem w Adobe jest ciągłe wspieranie i wzmacnianie tego.”
Zalecenia redaktorów
- 5 powodów, dla których uwielbiam aparat Leica M11 i 5 powodów, dla których nie
- Zdjęcia Google pokazują teraz więcej zdjęć, które chcesz, a mniej tych, których nie chcesz
- Nadchodzą kamery 8K. Nie, nie potrzebujesz go