Świeżak napisał(a):
To czego z pewnością jednak 20 lat temu nie było to cyfrowe wersje treningowych dzienniczków milionów biegaczy z całego świata, wraz z danymi opisującymi ich wydolność (ich jakość będzie tylko wzrastać, myślę że co do tego nie ma wątpliwości). To jest prawdziwa kopalnia wiedzy, i wydaje mi się że to nie hiper-zaawansowane algorytmy będą kluczem do wytyczenia nowych kierunków w badaniu ludzkiej wydolności i wpływie różnych bodźców na przeciętny organizm, ale właśnie dostęp do wspomnianych wyżej danych
Bazowanie na takich danych może zakończyć ścieżkę rozwoju przed osiągnięciem pełnego potencjału możliwości. Weźmy ten przykładowy naprężacz powięzi i silny kor. Z milionów źródeł algorytm dostaje potwierdzenie początkowego założenia o funkcji stabilizującej tych struktur oraz metodach regeneracji. Doprowadza więc do perfekcji sposoby postępowania, czyli kiedy i jak rolować powięź oraz kiedy i jak wzmacniać kor.
Gdy jednak podważymy pierwotne założenia o silnym korze i stabilizacji, to cała zgromadzona wiedza staje się bezużyteczna, bo algorytm nie jest w stanie zorientować się, że wpadł w jakąś formę lokalnego minimum, osiągnął maksa dla danych warunków brzegowych. Wyjście z tego i dalszy rozwój wymaga redefinicji warunków brzegowych. Czyli statycznie rozpatrywana stabilizacja przestaje być domeną lokalnych struktur i zmierza w kierunku globalnej, dynamicznej stabilizacji. Funkcja naprężacza i kora przesuwa się od stabilizacji do napędu, wchodząc w skład tzw. efektu elastic recoil. W związku z tym zmienia się też forma regeneracji tych struktur. A więc kompresja tkanek realizowana rolowaniem zastąpiona jest dekompresją, czyli zwiększaniem przestrzeni pomiędzy strukturami i poprawą ślizgu między nimi. Dlatego też ilość danych wcale nie musi przekuć się w jakość.