Niech A będzie algorytmem, którego złożoność wyraża się pewną funkcją f( n ), gdzie n jest rozmiarem danych wejściowych. Czas wykonania algorytmu A dla danych rozmiaru x na komputerze K wynosi t sekund.
1. Ile czasu zajmie wykonanie algorytmu A dla danych rozmiaru p-krotnie mniejszego na komputerze K?
2. Jaki jest maksymalny rozmiar danych, jakie algorytm A może przetworzyć na komputerze K w ciągu t' sekund?
3. Oblicz czas w jakim komputer K' , który jest p'-szybszy od komputera K, obliczy rezultat algorytmu dla danych wejściowych rozmiaru x'
F(n)=5n, x=12, t=60, p=5, t'=20, p'=2, x'=100
Może mi ktoś wytłumaczyć o co chodzi, Nie bylo mnie na tych zajęciach i mam braki