Direct naar de inhoud
Shop4Tesla Shop4Tesla
Zoeken
0
Analyse: Tesla Autopilot in de "Wile E. Coyote"-test – Wat ging er mis?

Analyse: Tesla Autopilot in de "Wile E. Coyote"-test – Wat ging er mis?

Heb je de nieuwe video van Mark Rober gezien? In zijn bijdrage, waarin hij probeert een Tesla te slim af te zijn, doet hij denken aan de klassieke streken van Wile E. Coyote. Hierbij staan echter enkele methodologische tekortkomingen centraal. In dit artikel laten we je zien waarom de tests gebrekkig waren en welke aspecten niet kloppen.

Fouten bij de systeemkeuze
Mark Rober gebruikte in de video de Autopilot in plaats van het volledig automatische FSD-systeem.

  • Verschillen uitleggen: Terwijl Autopilot slechts helpt bij het behouden van de rijstrook en snelheidsregeling, kan FSD zelfstandig van rijstrook wisselen om botsingen te vermijden.
  • Softwareleeftijd: De gebruikte Autopilot is gebaseerd op oudere software die allang niet meer aan de huidige standaarden voldoet.

Onduidelijke testmethodiek en ingrepen
Nog een kritiekpunt:

  • Handmatige interventies: Rober greep meerdere keren in op de voertuigbesturing – ofwel door sterk te sturen of door het pedaal in te trappen. Deze ingrepen verhinderden dat het systeem zijn functies volledig kon benutten.
  • Testprotocol: De testvolgorde en -omstandigheden waren inconsistent en roepen twijfels op over de objectiviteit van de resultaten.

Conflicten en verdenking van sponsoring
Ook sponsoringaspecten roepen vragen op:

  • Luminar als mogelijke invloed: Er zijn aanwijzingen dat LiDAR-technologie van Luminar – een bedrijf dat nauw samenwerkt met Tesla – indirect invloed op de productie van de video kan hebben gehad.
  • Belangenconflicten: Deze verbindingen zouden het resultaat kunnen vertekenen en de neutraliteit van de tests in twijfel trekken.

Technische diepte-inschatting en beeldanalyse
Rober vertrouwt op eenvoudige, monoculaire beeldverwerking om diepte-informatie vast te leggen.

  • Meerstapsbenaderingen ontbreken: Tesla gebruikt meerdere cameraperspectieven en creëert zo een gedetailleerd 3D-model van de omgeving.
  • Kritiek op de methode: Een enkel cameraperspectief is niet voldoende om realistische afstanden en objecten nauwkeurig te herkennen – een wezenlijk gebrek in de tests.

Conclusie en vooruitzicht
Mark Rober's video, waarin hij probeert de Tesla autopilot voor de gek te houden, vertoont talrijke methodologische zwakheden. De keuze voor een verouderd systeem, de handmatige ingrepen en mogelijke belangenconflicten leiden tot een vertekend beeld. Voor een gefundeerde beoordeling van de autonome functies van Tesla zijn ongesneden, objectieve tests met de modernste technologie nodig. Blijf op de hoogte – de volgende analyses kunnen ons nog meer duidelijkheid verschaffen.

Je winkelwagen is leeg

Begin met winkelen