Home

Siemens, Airbus i Rolls-Royce razem w przestworzach

Siemens

Siemens, Airbus i Rolls-Royce chcą po raz pierwszy przetestować hybrydowo-elektryczny układ napędowy w samolocie o stosunkowo dużych rozmiarach. Projekt latającej platformy testowej będzie oparty na 100-miejscowym modelu samolotu BAe146.

Milowy krok dla lotnictwa

– Ten prototyp  jest znaczącym krokiem dla lotnictwa w kierunku hybrydowo-elektrycznej przyszłości – mówi dr Frank Anton, szef Siemens eAircraft (działu zajmującego się projektem samolotu z napędem elektrycznym). – Testując wersję demonstracyjną i jej elektryczny układ napędowy w locie, nauczymy się wykorzystywać tę przełomową technologię dla lotnictwa pasażerskiego. Siemens oferuje już rozwiązania dla lotnictwa, np. systemy napędowe dla dronów oraz ultralekkich i lekkich samolotów sportowych. Niedawno zaprezentowaliśmy również prototypowy silnik do CityAirbus – latającej taksówki do użytku w obszarach miejskich. Teraz wykorzystujemy doświadczenia, jakie zdobyliśmy podczas opracowywania różnych typów silników, aby opracować pierwszy hybrydowo-elektryczny samolot pasażerski, który może pomieścić od 50 do 100 osób. Transport lotniczy stanie się dzięki temu cichszy i bardziej zrównoważony – podkreśla Anton.

Elektryczny układ napędowy, który jest opracowywany na potrzeby samolotu pasażerskiego, będzie około ośmiokrotnie silniejszy niż system napędzający dwumiejscowy samolot testowy Extra 330LE. Maszyna ta, wyposażona w silnik Siemensa mocy o stałej mocy 260 kW i wadze zaledwie 50 kg, w 2016 roku ustanowiła rekord świata w szybkości wznoszenia: osiągnęła wysokość 3000 m w ciągu zaledwie 4 minut i 22 sekund, bijąc poprzedni rekord o ponad jedną minutę!

– Wersja demonstracyjna samolotu pasażerskiego będzie miała umieszczone na skrzydłach od 4 do 8 silników, które zasilą śmigła lub wentylatory tej jednostki latającej – informuje Wulf Roscher, kierownik projektu E-Fan X w Siemens eAircraft. – Elektryczny układ napędowy prototypu będzie zasilany z generatora napędzanego przez turbinę w kadłubie. Podczas startu i wznoszenia silniki będą wspierane przez akumulatory litowo-jonowe; każdy o mocy 700 kW.

– Naszym zamiarem jest zastąpienie jednej z czterech turbin odrzutowych samolotu testowego elektrycznym układem napędowym o mocy 2 MW i wykonanie pierwszego lotu w 2020 roku. Byłby to pierwszy raz, kiedy tak potężny silnik elektryczny mógłby pomóc napędzać samolot! Możemy sobie wyobrazić, że w kolejnych testach zastąpimy dodatkową turbinę elektrycznym układem napędowym – ekscytuje się dr Frank Anton.

Tajemnica tkwi w technologii

Czy tak potężny układ napędowy nie będzie ważył i zajmował za dużo miejsca? Okazuje się, że nie. Duża ilość badań i testów z wykorzystaniem lekkich tworzyw oraz zaawansowanych technologicznie materiałów, pozwoli na znaczące zmniejszenie rozmiaru i wagi układów napędowych Siemensa.

– Tajemnica nie tkwi w materiałach ani topologii. Niezwykle lekkie systemy napędowe, o których mówimy, mogą być rozwijane i budowane tylko dzięki SimcenterTM, oprogramowaniu do symulacji Siemens PLM, które uwzględnia wszystkie uwarunkowania fizyczne i techniczne – podkreśla szef Siemens eAircraft. – Korzystając z tej technologii, tworzymy „cyfrowe bliźniaki” samolotów i wirtualnie optymalizujemy nasze prototypy. To nie tylko przyspiesza postęp prac, ale także skutkuje bardziej wydajnymi maszynami.

W projekt E-Fan X zaangażowane są trzy uznane, światowe marki. Koncern Airbus jest odpowiedzialny za całościową integrację i loty testowe oraz zapewni systemy magazynowania energii. Rolls-Royce dostarczy turbinę o mocy 2,5 MW i zintegrowany generator, który będzie zasilał  energią elektryczny układ napędowy. Siemens, oprócz silnika elektrycznego, opracuje także system dystrybucji energii. Ścisła współpraca tych trzech firm coraz bardziej przybliża nas do urzeczywistnienia wizji latania po Europie w hybrydowo-elektrycznych samolotach pasażerskich.

 

Źródło: Informacja prasowa

Ilustracja: Informacja prasowa

 

 

Volkswagen i NVIDIA będą stosować sztuczną inteligencję w samochodach przyszłości

Volkswagen

Volkswagen i NVIDIA przedstawiły swoją wizję tego, jaki wpływ na rozwój nowej generacji samochodów będą miały sztuczna inteligencja i technologia tzw. głębokiego myślenia. Podczas rozpoczynającego się w Las Vegas „Consumer Electronics Show CES” Prezes Zarządu Marki Volkswagen – dr Herbert Diess – oraz założyciel i dyrektor firmy NVIDIA – Jansen Huang – dyskutowali o zmianach jakie w przemyśle samochodowym spowoduje rozwój sztucznej inteligencji. Zaprezentowano też nowego I.D. BUZZ – współczesną wersję legendarnego Microbusa, czyli napędzanego energią elektryczną studyjnego vana z technologią AI zastosowaną zarówno we wnętrzu, jak i służącą do autonomicznej jazdy.

„Sztuczna inteligencja zrewolucjonizuje samochód” – stwierdził Diess. „Autonomiczna, bezemisyjna jazda pojazdami komunikującymi się między sobą i z otoczeniem nie będzie możliwa bez postępu w zakresie sztucznej inteligencji oraz technologii „głębokiego uczenia”. Razem z NVIDIĄ Volkswagen może uczynić w tej dziedzinie wielki krok naprzód”.

„Już za kilka lat każdy nowy samochód będzie wyposażany w system asystujący oparty na zasadach sztucznej inteligencji zdolny do rozpoznawania głosu, gestów, twarzy czy elementów rozszerzonej rzeczywistości” – powiedział Huang. „Wraz z Volkswagenem pracujemy nad pojazdami nowej generacji dostępnymi dla każdego, bezpieczniejszymi i wygodniejszymi niż dzisiejsze samochody”.

Rozwój umiejętności „inteligentnego kierowcy”

Ciekawym rozwiązaniem w modelu I.D. BUZZ wyposażonym w technologie sztucznej inteligencji może być tzw. inteligentny kierowca, czyli zestaw systemów asystujących działających w oparciu o informacje zebrane przez czujniki znajdujące się we wnętrzu auta oraz w jego otoczeniu. Systemy te można doskonalić przez cały cykl życia samochodu aktualizując oprogramowanie i dodawać im nowe funkcje w miarę postępu w dziedzinie autonomicznej jazdy. Dzięki technologii „deep learning” („głębokiego uczenia”) samochód przyszłości będzie sam potrafił precyzyjnie oceniać sytuacje na drodze i analizować zachowanie innych uczestników ruchu – dzięki temu będzie w stanie podejmować właściwe decyzje.

Za pomocą „NVIDIA DRIVE IX Inteligent Experience Platform” można realizować takie funkcje oparte o technologię sztucznej inteligencji, jak otwieranie samochodu po rozpoznaniu twarzy właściciela, wysyłanie sygnałów ostrzegawczych dla rowerzystów, uruchamianie różnych funkcji we wnętrzu auta przy pomocy gestów i poleceń głosowych (bezbłędne rozpoznawanie głosu) oraz śledzenie wzroku kierowcy, by przedstawić mu sygnały ostrzegawcze, gdy w danej chwili koncentruje się na czymś innym.

Droga Volkswagena do autonomicznej jazdy

I.D. BUZZ to model należący do rodziny I.D., która w 2020 roku zapoczątkuje ofensywę Volkswagena w dziedzinie samochodów elektrycznych, i która stopniowo będzie przystosowywana do poruszania się według zasad jazdy autonomicznej. Celem strategicznym Volkswagena jest zajęcie wiodącej pozycji w dziedzinie produkcji samochodów elektrycznych. Dlatego do 2025 roku marka wprowadzi na rynek ponad 20 modeli wyposażonych w napęd wyłącznie elektryczny.

Podstawą konstrukcji nowych modeli jest modułowa platforma MEB stworzona na potrzeby bezemisyjnych samochodów z rozwiązaniami cyfrowymi. W autach tych wykorzystano możliwości, jakie pod względem planowania wnętrza dają elektryczne zespoły napędowe. Silniki elektryczne nie są duże, a akumulatory w nowych autach umieszczono w podłodze – dzięki temu ich wnętrza są przestronne i można je zagospodarować na bardzo wiele sposobów. Innowacyjne technologie zastosowano nawet w nowych autach elektrycznych klasy kompaktowej, np. w postaci wyświetlacza przeziernego działającego w oparciu o zasadę rzeczywistości rozszerzonej. Samochody skonstruowane na bazie platformy MEB będą ponadto od razu wyposażane w najnowocześniejsze systemy asystujące i dostosowywane do kolejnych stopni zaawansowania w dziedzinie jazdy autonomicznej. Systemy elektroniczne przewidziane do wykorzystania w autach skonstruowanych w oparciu o MEB będą także stopniowo wprowadzane do samochodów z konwencjonalnymi silnikami, jakie powstają w oparciu o platformę MQB.    

                       

Źródło: Informacja prasowa

Ilustracja: Informacja prasowa

 

 

Dzięki technologii Bosch porozmawiasz ze swoim samochodem

bosch asystent głosowy

Asystenci głosowi, tacy jak Alexa, Siri, Google, Cortana i Bixby, przejęli już kontrolę nad inteligentnymi gospodarstwami domowymi, sterują oświetleniem i odkurzaczem – teraz Bosch umieszcza asystenta głosowego za kierownicą samochodu. Nowo opracowane rozwiązanie pomaga kierowcom skoncentrować się na ich podstawowym zadaniu. „Kiedy kierowca wsiada do nowoczesnego samochodu, może czasami poczuć się jak pilot samolotu – przyciski, ekrany, mało przejrzyste menu z wieloma funkcjami. Bosch położył kres chaosowi w kokpicie. Zamieniamy asystenta głosowego w pasażera" – mówi dr Dirk Hoheisel, członek zarządu Robert Bosch GmbH. Według badań Allianz Center for Technology, 74 procent niemieckich kierowców jest regularnie rozpraszanych, gdy na przykład obsługują system nawigacji, regulują klimatyzację lub odbierają telefon. Ten rodzaj rozproszenia jest jedną z głównych przyczyn wypadków drogowych.

Odpowiada na każde słowo – nawet w trybie offline

Dotychczasowe funkcje poleceń głosowych nie były pomocne w pełnym zakresie ze względu na ich opcjonalny charakter. Kierowca musiał na pamięć uczyć się ich struktury i odczytywać odpowiednie polecenia z wyświetlacza, co rozpraszało jego uwagę. „Powiedz co chcesz, tak jak chcesz to powiedzieć – Bosch umieścił w samochodzie asystenta głosowego, który rozumie kierowcę, tak jak każda inna osoba” – stwierdza Hoheisel. Asystent Boscha nie reaguje już na sztywno sformułowane polecenia. System rozpoznaje naturalne struktury zdań i może nawet przetwarzać akcenty i dialekty – robi to w ponad 30 krajach na świecie. Dla systemu język angielski nie jest po prostu angielskim; posługuje się on dialektem brytyjskim, amerykańskim, nowozelandzkim lub australijskim. Prace nad rozwojem systemu sterowania głosem trwały 10 lat, dzięki temu asystent głosowy Boscha może zrobić coś, co wykracza poza możliwości nawet dobrze znanych konkurentów – myśli z wyprzedzeniem i uczy się. Jeśli, na przykład, kierowca chce zadzwonić do "Piotra", to system przed podjęciem reakcji automatycznie przejrzy kontakty i uwzględni aktualną lokalizację, czas oraz sytuację w jakiej znajduje się kierowca. Rano w drodze do biura imię "Piotr" oznacza prawdopodobnie kolegę w pracy, podczas gdy wieczorem to samo imię może odnosić się do najlepszego przyjaciela. Aby się upewnić asystent zadaje pytanie – „Znalazłem pięć kontaktów pod nazwą Piotr. Czy chcesz zadzwonić do Piotra Nowaka? "Ta zależność od kontekstu jest pierwszym etapem sztucznej inteligencji. Kolejne wyrafinowane rozwiązanie techniczne pozwala kierowcy podać adres docelowy we Francji po francusku – na przykład „Pokieruj mnie na Champ de Mars, Cinq Avenue Anatole w Paryżu” – bez konieczności ręcznego wprowadzania jakichkolwiek zmian w ustawieniach. Asystent automatycznie zrozumie cel i wyznaczy trasę. Co więcej system informacyjno-multimedialny w samochodzie przejmuje pracę obliczeniową bez wysyłania jakichkolwiek danych do chmury. Asystent towarzyszy kierowcy nawet w tunelach, gdy znajduje się poza zasięgiem sieci komórkowej lub w innych krajach, gdy smartfon jest w trybie offline.

Reaguje na dowolne imię

Aby rozmowa w samochodzie stała się jeszcze bardziej osobista, kierowca może nazwać swojego asystenta jak zechce. Minęły już czasy, gdy system poleceń głosowych reagował tylko na nazwę przewidzianą przez producenta. System rozpoznawania głosu Bosch rozumie i mówi w 30 różnych językach, w sumie 44 głosami żeńskimi i 9 głosami męskimi. Kierowca aktywuje asystenta wymawiając nadane mu imię bez konieczności czekania na sygnał dźwiękowy.

 

Źródło: Informacja prasowa

Ilustracja: Informacja prasowa

Nowe podejście do zagadnień AI na drodze do wdrożenia w pełni autonomicznej jazdy

Audi A8 AI

Audi z pełną mocą kontynuuje prace prowadzące do wdrożenia w pełni autonomicznej jazdy. Na najważniejszym światowym sympozjum poświęconym sztucznej inteligencji (AI) – NIPS w Long Beach w Kalifornii, koncern z Ingolstadt prezentuje innowacyjny, wstępny i rozwojowy projekt z tej dziedziny. Dotyczy on wykorzystywania kamery posługującej się AI do generowania bardzo precyzyjnych, trójwymiarowych obrazów otoczenia pojazdu.

Podczas konferencji i warsztatów poświęconych systemom neuronowym (Conference and Workshop on Neural Information Processing Systems – NIPS), zespół projektowy firmy Audi Electronics Venture (AEV), spółki-córki Audi AG, prezentuje tzw. mono kamerę wykorzystującą sztuczną inteligencję AI do generowania precyzyjnych obrazów otoczenia pojazdu. Technika ta umożliwia uchwycenie i wytworzenie takich obrazów z wysoką dokładnością.

Zasada działania systemu: konwencjonalna kamera montowana w przodzie pojazdu pełni tu rolę czujnika. Rejestruje wygląd otoczenia z przodu samochodu, obejmując przestrzeń o szerokości ok. 120 stopni i dostarczając 15 obrazów o rozdzielczości 1,3 megapikseli na sekundę. Obrazy te są następnie przetwarzane w sieć neuronową. Następuje tu segmentacja semantyczna, gdzie każdy piksel przyporządkowywany jest do jednej z trzynastu klas obiektów. Umożliwia to systemowi identyfikację i rozróżnienie obiektów napotykanych na drodze: innych samochodów, ciężarówek, budynków, ludzi, oznaczeń na jezdni i znaków drogowych.

System wykorzystuje sieci neuronowe również do tworzenia informacji o odległości od innych obiektów. Wizualizacja tego następuje z wykorzystaniem tzw. linii ISO – wirtualnych granic definiujących stałą odległość. Kombinacja semantycznej segmentacji i szacowania głębi i odległości, pozwala na wytworzenie precyzyjnych, trójwymiarowych modeli aktualnego otoczenia.

Wcześniej, inżynierowie Audi „przeszkolili” sieć neuronową wykorzystując metodę tzw. uczenia bez nadzoru. Uczenie bez nadzoru, w przeciwieństwie do tzw. uczenia nadzorowanego, jest metodą uczenia się na podstawie obserwacji okoliczności i scenariuszy, które nie wymagają posortowanych i sklasyfikowanych wcześniej danych. Sieć neuronowa została w tym wypadku zasilona szeregiem filmów przedstawiających różne sytuacje drogowe, nagranych przy użyciu kamery stereo. W wyniku tego, nauczyła się samodzielnie rozumieć reguły, których używa później do generowania trójwymiarowych informacji, powstających z przetworzenia obrazów pozyskiwanych z mono kamery. Projekt AEV ma ogromny potencjał interpretowania różnych sytuacji drogowych.

Na stoisku Audi na tegorocznej konwencji NIPS, obok AEV, również dwa inne podmioty wchodzące w skład Grupy Volkswagen prezentowały swe projekty z dziedziny AI. Dział Badań Fundamentalnych AI, wchodzący w skład Data:Lab, specjalnej grupy IT koncernu, skupia się na technikach uczenia bez nadzoru i na zoptymalizowanej kontroli przez wnioskowanie wariacyjne, czyli przez wydajną metodę prezentacji rozkładu prawdopodobieństwa.

Zespół Audi z Electronics Research Laboratory of Belmont w Kalifornii pokazał bazujące w 100% na zasadach AI rozwiązanie służące do parkowania na wyznaczonych miejscach parkingowych i do jazdy po autostradzie. W przedstawionym tu projekcie procesu, prowadzenie samochodu powierzono w całości sieciom neuronowym. Sztuczna inteligencja AI uczy się samodzielnie generować modele otoczenia na podstawie danych pozyskiwanych z kamery oraz również samodzielnie prowadzić auto. Takie podejście nie wymaga dokładnie sprecyzowanej lokalizacji i dokładnych map.

Opracowując systemy jazdy automatycznej i autonomicznej, Audi czerpie z doświadczeń wielu firm specjalizujących się w pracach nad sztuczną inteligencją. Najważniejsze z nich zlokalizowane są w Dolinie Krzemowej, w Europie i w Izraelu.

Audi było pierwszym producentem samochodów, który w roku 2016 wziął udział w NIPS pokazując własną ekspozycję. W tym roku, cztery pierścienie pojawiły się na kongresie jako jeden ze sponsorów, stawiając sobie za cel dalszą rozbudowę swej sieci współpracy w Kalifornii. Koncern oferuje tu również możliwości zatrudnienia w Audi dla specjalistów z dziedziny AI.

 

Źródło: Audi

Ilustracja: Audi

NOTE! This site uses cookies and similar technologies.

If you not change browser settings, you agree to it. Learn more

I understand