Sztuczne zmysły
Lidar – laserowy system skanujący – może służyć autonomicznym samochodom do poznawania pokonywanej trasy. Lidar emituje wiązki laserowe i sprawdza, ile potrzebują one czasu na odbicie się od obiektów. Na tej podstawie tworzy dokładne, trójwymiarowe mapy otoczenia. Technologia Lidar została wykorzystana do mapowania Księżyca już w 1971 r. podczas misji Apollo 15. Inne systemy, które mogą służyć jako „oczy” dla samochodów autonomicznych, to kamery wsparte sztuczną inteligencją (są tanie, rozpoznają znaki drogowe, ale słabiej funkcjonują we mgle i nie sprawdzają się przy pomiarze odległości), czujniki ultradźwiękowe (wykorzystują fale dźwiękowe o wysokiej częstotliwości, ale ich zasięg jest ograniczony i dlatego są stosowane przede wszystkim do parkowania) oraz radar (sprawdza się do pomiaru odległości i prędkości poruszających się obiektów, ale nie odróżnia obiektów na drodze).
Projekt Understood ma ulepszyć oprogramowanie i przystosować je do rozpoznawania głosu użytkowników z zespołem Downa. Według Google’a technologia rozpoznawania mowy identyfikuje jedynie ok. 30% z komunikatów wypowiadanych przez te osoby. Znaczenie mają cechy fizyczne – rozmiar ust i języka – co wpływa na sposób mówienia. Uczestnicy mogą nagrać na potrzeby projektu do 1700 wyrażeń, które są następnie analizowane, aby poprawić technologię rozpoznawania mowy.
Naukowcy opracowali urządzenie, które pozwala odczuwać dotyk w wirtualnej rzeczywistości i może znaleźć zastosowanie m.in. w grach wideo i protetyce. Będzie można również przekazywać sobie dotyk przez platformy społecznościowe. Urządzenie składa się z miękkiego i lekkiego arkusza elektronicznego, który przykleja się do ciała. Wykorzystuje połączenie nacisku, wibracji i ruchu, aby imitować zmysł dotyku dla użytkowników. To „zintegrowane ze skórą bezprzewodowe interfejsy dotykowe dla wirtualnej i rozszerzonej rzeczywistości”.