Szczegółowa specyfikacja techniczna oprogramowania statystycznego dla Uniwersyteu Jana Kochanowskiego w Kielcach.

Podobne dokumenty
OPIS PRZEDMIOTU ZAMÓWIENIA. Część nr 8 OPROGRAMOWANIE DO ANALIZ MARKETINGOWYCH (pom. nr 1.21)

I. Oprogramowanie sieciowe do prowadzenia analiz statystycznych wyników badań naukowych

Jelenia Góra r. ZAPYTANIE OFERTOWE

Oznaczenie sprawy:05/w6/09/2018-zp

Adres strony internetowej, na której Zamawiający udostępnia Specyfikację Istotnych Warunków Zamówienia:

UNIWERSYTET Jana Kochanowskiego w Kielcach ul. Żeromskiego 5, Kielce Tel.: (0-41) Nr Sprawy: DP/2310/ 69 /15

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

Dostawa oprogramowania. Nr sprawy: ZP /15

1. Informacje o StatSoft Polska

PODSTAWOWE ANALIZY I WIZUALIZACJA Z WYKORZYSTANIEM MAP W STATISTICA

Piotr Wójtowicz StatSoft Polska Sp. z o.o.

Sterowanie jakością badań i analiza statystyczna w laboratorium

Opis przedmiotu zamówienia

Statystyka w zarzadzaniu / Amir D. Aczel, Jayavel Sounderpandian. Wydanie 2. Warszawa, Spis treści

Ankieta. Informacje o uczestniku. Imię i nazwisko: Stanowisko : Warsztat Innowacyjne metody dydaktyczne (np. learning by doing, design thinking)

LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej

BUDOWA MODELU SCORINGOWEGO DO E-POŻYCZKI Z WYKORZYSTANIEM NARZĘDZI STATISTICA

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Jak sprawdzić normalność rozkładu w teście dla prób zależnych?

Importowanie danych do SPSS Eksportowanie rezultatów do formatu MS Word... 22

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

SPIS TEŚCI CZĘŚĆ I RACHUNEK PRAWDOPODOBIEŃSTWA

PRAKTYCZNY SKORING - NIE TYLKO KREDYTOWY

Księgarnia PWN: George A. Ferguson, Yoshio Takane - Analiza statystyczna w psychologii i pedagogice

Badanie opinii Omniwatch. Oferta badawcza

SZKOLENIA SAS. ONKO.SYS Kompleksowa infrastruktura inforamtyczna dla badań nad nowotworami CENTRUM ONKOLOGII INSTYTUT im. Marii Skłodowskiej Curie

EXCEL ANALIZA DANYCH. Konspekt szczegółowy

Przedmowa Wykaz symboli Litery alfabetu greckiego wykorzystywane w podręczniku Symbole wykorzystywane w zagadnieniach teorii

Dane dotyczące wartości zmiennej (cechy) wprowadzamy w jednej kolumnie. W przypadku większej liczby zmiennych wprowadzamy każdą w oddzielnej kolumnie.

Metody scoringowe w regresji logistycznej

Recenzenci: prof. dr hab. Henryk Domański dr hab. Jarosław Górniak

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

MODUŁ AM4: ARKUSZE KALKULACYJNE

Statystyka w zarządzaniu : pełny wykład / Amir D. Aczel. wyd. 1, dodr. 5. Warszawa; Spis treści

1 Wprowadzenie do koncepcji Microsoft Office BI 1 Zakres ksiąŝki 2 Cel ksiąŝki 3 Wprowadzenie do tematu 3 Zawartość rozdziałów 4

LINIOWOŚĆ METODY OZNACZANIA ZAWARTOŚCI SUBSTANCJI NA PRZYKŁADZIE CHROMATOGRAFU

You created this PDF from an application that is not licensed to print to novapdf printer (

TP1 - TABELE PRZESTAWNE od A do Z

ZMODYFIKOWANY Szczegółowy opis przedmiotu zamówienia

Przedmiotem zamówienia jest dostawa:

Spis treści. Księgarnia PWN: Bruce M. King, Edward W. Minium - Statystyka dla psychologów i pedagogów. Wstęp Wprowadzenie...

INFORMATYKA W SELEKCJI

ECDL Advanced Moduł AM4 Arkusze kalkulacyjne Syllabus, wersja 2.0

w ekonomii, finansach i towaroznawstwie

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Analizy wariancji ANOVA (analysis of variance)

Statystyka matematyczna i ekonometria

Rok akademicki: 2013/2014 Kod: ZIE n Punkty ECTS: 6. Poziom studiów: Studia I stopnia Forma i tryb studiów: -

Spis treści 3. Spis treści

Wprowadzenie do analizy korelacji i regresji

Tytuł: GRAPHER Podręcznik użytkownika ISBN: Autor: Zbigniew Galon Rok wydania: 2014 Stron: 500 Wydawca: Gambit COiS Sp. z o.o.

Hurtownia danych. Załącznik Nr 1 do SIWZ. Opis przedmiotu zamówienia. Lp. FUNKCJONALNOŚĆ/PARAMETRY WYMAGANE

EXCEL ZAAWANSOWANY. Konspekt szczegółowy

Praktyczny Excel. Wykresy i grafika. w Excelu krok po kroku

EXCEL POZIOM EXPERT. Konspekt szczegółowy

Badanie opinii Warsaw Watch. Oferta badawcza

Studia podyplomowe w zakresie przetwarzanie, zarządzania i statystycznej analizy danych

author: Andrzej Dudek

Tom 6 Opis oprogramowania

L.p Nazwa przedmiotu Kod przedmiotu Osoba(y) prowadząca(e) WDP PDP WIR DAW BDZ

KATEGORIA OBSZAR WIEDZY

Analiza Statystyczna

Testy nieparametryczne

O autorach CZĘŚĆ I. PODSTAWOWE INFORMACJE NA TEMAT PULPITÓW MENEDŻERSKICH

Analiza i prezentacja danych w Microsoft Excel : vademecum Walkenbacha / Michael Alexander, John Walkenbach. Gliwice, cop

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop Spis treści

Wojciech Skwirz

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Zadanie Tworzenie próbki z rozkładu logarytmiczno normalnego LN(5, 2) Plot Probability Distributions

Stochastyczne Metody Analizy Danych. PROJEKT: Analiza kluczowych parametrów turbin wiatrowych

Monitoring procesów z wykorzystaniem systemu ADONIS

Rozdział 8. Regresja. Definiowanie modelu

Badanie normalności rozkładu

1. Zaczynamy! (9) 2. Edycja dokumentów (33)

Wprowadzenie do analizy dyskryminacyjnej

Opis zakładanych efektów kształcenia na studiach podyplomowych WIEDZA

Badania eksperymentalne

Tom 6 Opis oprogramowania Część 8 Narzędzie do kontroli danych elementarnych, danych wynikowych oraz kontroli obmiaru do celów fakturowania

Microsoft Excel 2016 : analiza i modelowanie danych biznesowych / Wayne L. Winston. Warszawa, Spis treści

MODUŁ AM3: PRZETWARZANIE TEKSTU

tel.: (+48) mail.

Szczegółowy opis przedmiotu zamówienia

Praktyczny Excel. Wykresy i grafika. w Excelu krok po kroku

Wprowadzenie (17) Część I. Makra w Excelu - podstawy (23)

WYMAGANIA Z MATEMATYKI NA POSZCZEGÓLNE OCENY KLASYFIKACYJNE DLA UCZNIÓW KLAS TRZECICH. Sposoby sprawdzania wiedzy i umiejętności uczniów

TOPWEB Microsoft Excel 2013 i PowerBI Przygotowanie danych, analiza i efektowna prezentacja wyników raportów

Analiza i prezentacja danych w Microsoft Excel. Vademecum Walkenbacha.

Recenzenci Stefan Mynarski, Waldemar Tarczyński. Redaktor Wydawnictwa Anna Grzybowska. Redaktor techniczny Barbara Łopusiewicz. Korektor Barbara Cibis

Microsoft PowerPoint Poziom Zaawansowany PROGRAM SZKOLENIOWY. Plan szkolenia zawiera: Microsoft Excel Poziom Zaawansowany

Wykład 6/7/8: Graficzna analiza danych

Gambit Centrum Oprogramowania i Szkoleń Sp. z o.o.

MONITOROWANIE DZIAŁAŃ NIEPOŻĄDANYCH

Analizy na podstawie danych sprawozdawczych - Moduł Analiz dla Banków Spółdzielczych

Podstawy statystyki dla psychologów. Podręcznik akademicki. Wydanie drugie poprawione. Wiesław Szymczak

Program szkoleniowy. 16 h dydaktycznych (12 h zegarowych) NAZWA SZCZEGÓŁY CZAS. Skróty do przeglądania arkusza. Skróty dostępu do narzędzi

Transkrypt:

Szczegółowa specyfikacja techniczna oprogramowania statystycznego dla Uniwersyteu Jana Kochanowskiego w Kielcach. 1. Cechy użytkowe oprogramowania: - z oprogramowania mogą korzystać przez okres trzech lat (od 1 grudnia 2018 r. do 30 listopada 2021 r.) do celów edukacyjnych i badawczych wszyscy pracownicy i studenci Uniwersytetu Jana Kochanowskiego w Kielcach; - możliwość instalacji oraz korzystania z oprogramowania na domowych komputerach pracowników oraz studentów Uniwersytetu Jana Kochanowskiego w Kielcach; - główne środowisko pracy w programie w języku polskim (anglojęzyczne zwroty jedynie w niewielkim zakresie całego interfejsu); - uaktualnienia do nowych wersji w czasie obowiązywania umowy (bez dodatkowych opłat); - użytkownicy mają prawo do pomocy technicznej bez wnoszenia dodatkowych opłat (pomoc techniczna jest świadczona za pośrednictwem poczty elektronicznej i telefonicznie w godzinach pracy biura Dostawcy); - pomoc techniczna świadczona w języku polskim; - rozbudowana pomoc elektroniczna zawierająca opisy poszczególnych opcji programu oraz dla wybranych modułów opisane krok po kroku przykłady analiz. 2. Środowisko pracy z programem i korzystanie z zewnętrznych danych - Dane mogą być składowane w arkuszu danych umożliwiającym interakcyjne wprowadzanie i przekształcanie danych (sortowanie, transformacje zmiennych, ułóż w stertę/rozrzuć po zmiennych) oraz import i eksport danych (m.in. z plików Excel i plików tekstowych). - Oprogramowanie ma możliwość łączenia ze standardowymi bazami danych (SQL Server, MS Access i inne) przez OLE DB. - Wczytywanie i zapis danych w formacie Excel (.xls,.xlsx,.xlsb,.xlsm), tekstowym, csv, html i innych. - Wczytywanie i zapis plików danych w formatach: Statistica, SPSS, SAS, JMP, Minitab - Oprogramowanie zawiera wbudowany, zgodny ze standardami język programowania Visual Basic, który umożliwia dostęp programowy do funkcji programu, programowanie własnych procedur analitycznych oraz automatyzację prac. - Środowisko użytkownika umożliwiające graficzne definiowanie projektu analitycznego w postaci schematu (grafu), w którym źródła danych, procedury przetwarzania danych i wyniki reprezentowane są przez ikony, a przepływ danych obrazują strzałki. - Możliwość uruchamiania procedur w językach R i Python w projektach analitycznych zdefiniowanych jako schemat graficzny (graf). - Oprogramowanie działa na stanowisku komputerowym pod kontrolą systemu operacyjnego Windows 7/8/10. 3. Zarządzanie wynikami - Oprogramowanie zapewnia możliwość tworzenia raportów z analizy, z możliwością zapisania w formacie PDF. - Przesyłanie wyników (tabel, wykresów) do dokumentów edytora tekstowego (np. MsWord). - Raport otrzymywany przy pomocy Oprogramowania przypomina dokument edytora tekstu, a poszczególne obiekty (np. wykresy, arkusze, arkusz czy wykres MS Excel) umieszczane są w nim kolejno, jeden za drugim. Raporty mogą być zapisywane nie tylko we własnym formacie oprogramowania, ale także w postaci plików RTF, HTML. - Oprogramowanie pozwala na zapis dokumentów (arkuszy danych i wyników, raporty) w postaci plików HTML, gotowych do opublikowania w Internecie lub Intranecie. - Możliwość aktualizacji utworzonych wykresów po zmianie danych źródłowych (automatycznie lub przez użytkownika) 1

- Możliwość edycji wykresów po ich wstawieniu do dokumentu edytora tekstowego (tzn. wykresy mogą być wstawiane jako obiekty OLE) na komputerach z zainstalowanym Oprogramowaniem. - Wynikowe tabele mają format pliku danych, dzięki czemu można na nich (tzn. na wynikowych tabelach) łatwo wykonywać kolejne analizy. 4. Funkcjonalność oprogramowania: Oprogramowanie udostępnia w jednym środowisku użytkownika następujące funkcje analityczne: - Statystyki podstawowe i tabele - Możliwość wykonywania analiz w grupach - Wykresy: histogramy, wykresy rozrzutu, wykres workowy, wykresy średnia i błędy, wykresy ramkawąsy, wykres składowych zmienności, wykresy zakresu, wykres rozrzutu z błędem, obrazkowe wykresy rozrzutu, wykresy rozrzutu z rysunkami, wykresy rozrzutu z histogramami, wykresy normalności, wykresy kwantyl-kwantyl, wykresy prawdopodobieństwo-prawdopodobieństwo, wykresy słupkowe/kolumnowe, wykresy liniowe, wykresy sekwencyjne/nakładane, wykresy kołowe, wykresy brakujących danych i spoza zakresu, histogramy dwóch zmiennych, wykresy powierzchniowe, wykresy warstwicowe, wykresy waflowe, wykresy trójkątne, skategoryzowane wykresy XYZ, skategoryzowane wykresy trójkątne, wykresy macierzowe, wykresy obrazkowe, wykresy XYZ 3W, wykresy trójkątne 3W - Dopasowanie rozkładów - Regresja wieloraka - Analiza wariancji (ANOVA) - Statystyki nieparametryczne - Rozkłady i symulacje - Ogólne modele liniowe - Uogólnione modele liniowe i nieliniowe - Ogólne modele regresji - Modele cząstkowych najmniejszych kwadratów - Komponenty wariancyjne - Analiza przeżycia - Estymacja nieliniowa - Linearyzowana regresja nieliniowa - Analiza log-liniowa tabel liczności - Szeregi czasowe i prognozowanie - Modelowanie równań strukturalnych - Analiza skupień - Analiza czynnikowa - Składowe główne i klasyfikacja - Algorytm NIPALS dla analizy składowych głównych i metody cząstkowych najmniejszych kwadratów - Analiza kanoniczna - Analiza rzetelności i pozycji - Drzewa klasyfikacyjne - Analiza korespondencji - Skalowanie wielowymiarowe - Analiza dyskryminacyjna - Ogólne modele analizy dyskryminacyjnej - Analiza Mocy Testów - Sieci neuronowe - Dobór i eliminacja zmiennych (dla dużych zbiorów danych) - Analiza koszykowa - Interakcyjne drążenie danych 2

- Analiza skupień uogólnioną metodą EM i k-średnich - Uogólnione modele addytywne (GAM) - Ogólne modele drzew klasyfikacyjnych i regresyjnych (GTrees) - Ogólne modele CHAID (Chi-square Automatic Interaction Detection) - Interakcyjne drzewa klasyfikacyjna i regresyjne - Wzmacniane drzewa klasyfikacyjne i regresyjne (Boosted Rrees) - Multivariate Adaptive Regression Splines (MAR Splines) - Obliczanie dobroci dopasowania - Szybkie wdrażanie modeli predykcyjnych - Naiwny klasyfikator Bayesa - Support Vector Machines - Metoda k-najbliższych sąsiadów - Łączenie grup (klas) z wykorzystaniem algorytmu CHAID - ICA (Independent Component Analysis) - Losowy las (Random Forests) - Standardowe karty kontrolne: karta X średniego i R, karta X średniego i S, karta pojedynczych obserwacji i ruchomego rozstępu (I/MR), karta sum skumulowanych (CUSUM), karta średniej ruchomej (MA), karta wykładniczo ważonej średniej ruchomej (EWMA), karty dla pomiarów alternatywnych (C, U, Np, P), karta Pareto, karty wielowymiarowe, karty wielotorowe - Interaktywne zaznaczanie i etykietowanie punktów - Przypisywanie przyczyn i działań - Elastyczny, dostosowywalny system alarmowania - Praca inżyniera i operatora; zabezpieczanie hasłem - Karty krótkich serii - Karty wieloźródłowe (zgrupowane i zgrupowane krótkich serii) - Wskaźniki zdolności, wykonania i linie kontrolne dla rozkładów innych niż normalny - Karty kontrolne w czasie rzeczywistym; zewnętrzne źródła danych - Wielowymiarowe karty kontrolne Kart T^2 Hotellinga - Wielowymiarowe karty kontrolne Wieloźródłowych (zgrupowanych) kart T^2 Hotellinga - Wielowymiarowe karty kontrolne wykładniczo ważonej średniej ruchomej (MEWMA) - Wielowymiarowe karty sum skumulowanych (MCUSUM) - Karta uogólnionej wariancji - Analiza zdolności procesu: wskaźniki zdolności procesów (np. Cp, Cr, Cpk, Cpl, Cpu, K, Cpm, Pp, Pr, Ppk, Ppl, Ppu i inne), - Plany badania i analiza powtarzalności i odtwarzalności pomiarów (R&R) - Analiza Weibulla - Analiza doświadczenia: Ogólne możliwości - Analiza resztowa i przekształcenia - Optymalizacja pojedynczej lub wielu wielkości wyjściowych: - Standardowe plany frakcyjne dwuwartościowe 2(k-p) - Plany frakcyjne 2(k-p) o najmniejszej aberracji i maksymalnym nieuwikłaniu - Plany eliminacyjne (Placketta-Burmana) - Plany frakcyjne trójwartościowe typu 3(k-p) z podziałem na bloki oraz plany Boxa-Behnkena - Plany centralne kompozycyjne (powierzchnia odpowiedzi) - Plany kwadratów łacińskich - Doświadczenia wg metody Taguchi - Plany dla mieszanin i powierzchni o podstawie trójkątnej - Plany dla ograniczonych powierzchni i mieszanin - Plany D i A-optymalne - Funkcjonalność text mining - Analiza dokumentów zapisanych w formacie MS Word - Zliczanie wystąpień słów 3

- Różne miary częstości występowania słów : prosta częstość, częstość binarna (ang. binary frequency), odwrotna częstość dokumentowa (ang. inverse document frequency), częstość logarytmiczna - Możliwość określania własnej stop-listy - Możliwość określania synonimów - Wykonywanie rozkładu według wartości osobliwych (ang. singular value decomposition) dla miar częstości występowania słów w zbiorze dokumentów - Analiza podstawowych przyczyn - Optymalizacja wielkości wyjściowych - Ogólna optymalizacja - Wdrażanie modelu MSPC - Analiza składowych głównych (PCA) - Cząstkowe najmniejsze kwadraty (PLS) - Wielokierunkowe cząstkowe najmniejsze kwadraty wg partii (BMPLS) - Wielokierunkowa analiza składowych głównych według czasu (TMPCA) - Wielokierunkowe cząstkowe najmniejsze kwadraty wg czasu (TMPLS) - Wykrywanie reguł asocjacji - Analiza sekwencji - Analiza skojarzeń - Wykresy zmienności, - Wykresy wielokrotne, pozwalające bezpośrednio porównywać wiele zmiennych zależnych, - Komponenty wariancyjne z przedziałami ufności, - Elastyczne operowanie wieloma zmiennymi zależnymi: jednoczesne analizowanie wielu zmiennych wg tego samego lub różnych planów, - Wykresy komponentów wariancyjnych - Tabele raportujące - Definiowanie reguł poprawności danych - Reguły poprawności danych - Analiza brakujących danych - Przekodowanie na zmienne sztuczne - Szybkie rekodowanie - Przekształcenia zmiennych - Zliczanie wystąpień - Porządkuj zmienne wielokrotnych odpowiedzi - Kalkulator liczebności próby - Ważenie wieńcowe przypadków - Propensity score matching - Podsumowanie skali pozycyjnej - Podsumowanie skali rangowej - Wykres dyferencjału semantycznego - Wykres dla skali Stapela - Rzetelność skali - Metoda ocen porównawczych Thurstone'a - Współczynniki zgodności sędziów - Krzywe ROC - Metaanaliza i metaregresja - Kreator regresji logistycznej - Kreator regresji liniowej - Analiza conjoint - Aglomeracja z punktem odcięcia 4

- Analiza PROFIT - Uogólniona metoda składowych głównych (PCA) - Porządkowanie liniowe - Bootstrap - Miary powiązania/efektów dla tabel 2x2 - Analiza koncentracji - Standaryzowane miary efektu - Test post hoc ANOVA Friedmana - CATANOVA - Karta CUSUM ważona ryzykiem - Indeks KMO oraz Test sferyczności Bartletta - Wykres Blanda-Altmana - Badanie ciągów pomiarów - Przedziały odniesienia - Przedział ufności dla ilorazów - Profile ryzyka - Wykres słupkowy (kolorowe słupki) - Wykres sekwencyjny - Wykres radarowy - Wykres mozaikowy - Wykres kołowy (SPie plot) - Piramida populacyjna - Możliwość wizualizacji danych na mapach: a) Gotowe szablony map dostępne w programie obejmują podział Polski na: województwa, powiaty, gminy, okręgi wyborcze, województwa w podziale na powiaty, województwa w podziale na gminy, województwa w starym podziale b) Możliwość wczytywania innych niż zawarte w programie szablonów map w formacie *.shp c) Kolorowanie na mapach tła obszarów wartościami zadanej zmiennej (predefiniowane palety do wyboru, możliwość ustalenia palety użytkownika, możliwość ustalenia własnych granic dla przedziałów legendy, możliwość zapisu/wczytania palety kolorów z/do pliku) d) Generowanie wykresów kołowych i słupkowych (możliwość ręcznej zmiany wielkości wykresu, możliwość ręcznego ustalenia jego położenia, możliwość zmiany skalowania wysokości słupka względem wiersza/kolumny/całości, zmienny promień wykresu kołowego zależny od wartości ze zmiennej) e) Wyświetlanie etykiet tekstowych pobranych z zadanej zmiennej lub zmiennej zawierającej mapowanie elementów wraz z formatowaniem zadanych przez użytkownika (kolor, krój itp.), oraz ręczną korekcją położenia etykiety względem innych elementów wykresu f) Różne stany wyświetlania elementów obszaru aktywny, nieaktywny, ukryty g) Rodzaj i grubość linii rysowanych jako granice może być zmieniana przez użytkownika h) Możliwość zapisu/odczytu z i do pliku wszystkich opcji wyglądu mapy i) Możliwość ręcznej edycji przez użytkownika szablonów map wczytanych w programie (usuwanie obszarów, scalanie obszarów) i zapisu jako nowy szablon j) Możliwość zarejestrowania wygenerowanej mapy (z wizualizacją danych) w postaci makra - Dedykowane narzędzia do budowy modeli scoringowych za pomocą regresji logistycznej - Możliwość budowy modelu logistycznego na podstawie prób bootstrapowych - Budowa modelu typu SURVIVAL - Analiza wniosków odrzuconych: o parceling o metoda k-najbliższych sąsiadów - Ranking predyktorów na podstawie miar Information Value, Gini oraz V Cramera 5

- Narzędzie do wykrywania reguł i interakcji za pomocą metody losowy las - Generowanie rankingu interakcji pomiędzy parami zmiennych przy użyciu regresji logistycznej - Narzędzia do dyskretyzacji zmiennych na potrzeby modeli skoringowych manualne i automatyczne definiowanie przedziałów dla zmiennych ciągłych oraz rekategoryzacja zmiennych jakościowych - Diagnozowanie jakości podziału na przedziały na podstawie WoE (weight of evidence), wskaźnika Information Value oraz odpowiednich wykresów - Możliwość uwzględnienia braków danych jako wartości nietypowych - Manualne definiowanie przedziałów dla zmiennej ciągłej - Manualne grupowanie dla zmiennej dyskretnej - Automatyczne tworzenie przedziałów dla zmiennej ciągłej według zadanych parametrów dotyczących liczebności przypadków w poszczególnych przedziałach - Automatyczne tworzenie przedziałów dla zmiennej dyskretnej na podstawie minimalnej liczności - Automatyczne tworzenie przedziałów dla zmiennej ciągłej lub dyskretnej za pomocą algorytmu CHAID - Obsługa wartości nietypowych - Wybór reprezentantów skupisk skorelowanych zmiennych ilościowych za pomocą analizy głównych składowych - Zapis definicji kategoryzacji zmiennych w plikach XML - Możliwość wczytania skryptu dyskretyzacji XML i reedycja zdefiniowanych przedziałów - Ocena jakości zbudowanych modeli na podstawie miar: Information Value, Kołmogorowa- Smirnowa, Hosmera-Lemeshowa, Dywergencji, Giniego, pola pod krzywą ROC - Narzędzia do optymalizacji punktu odcięcia dla modeli scoringowych o możliwość wyboru punktu odcięcia (cut-off) na podstawie analizy ROC oraz kosztów błędnych klasyfikacji o możliwość wskazania od 1 do 3 punktów odcięcia o o zestaw narzędzi i raportów pozwalających ocenić trafność odcięcia możliwość wyboru punktu odcięcia na podstawie jednostkowych bądź średnich kosztów (np. wyrażonych kwotowo) - Możliwość symulacji zyskowności modelu scoringowego dla wczytanego portfela w zależności od przeznaczenia modelu i podanych przez użytkownika parametrów dodatkowych - Narzędzia do badania stabilności populacji i cech - Zapis zbudowanego modelu scoringowego w postaci tablicy/karty scoringowej - Zapis tablicy scoringowej w postaci arkusza Excel - Generowanie raportu opisującego powstałą kartę scoringową - Raporty: cech (characteristic report), końcowej punktacji (final score report), wykresy Bad rate oraz Odds - Obliczenie wartości scoringu dla nowych danych na podstawie zbudowanych modeli scoringowych o obliczanie skoringu dla nowych danych na podstawie wybranego modelu o możliwość obliczania PD (default probability) o skalowanie wartości PD dla modeli budowanych na zbalansowanym zbiorze danych o obliczanie prawdopodobieństwa dla modeli typu SURVIVAL - Ocena kart scoringowych zapisanych w postaci XML - Ocena modeli na podstawie scoringu bądź prawdopodobieństwa zapisanego w arkuszu danych - Ocena jakości zbudowanych modeli na podstawie miar: IV (Information Value), KS (Kołmogorowa- Smirnowa), Hosmera-Lemeshowa, Dywergencji, Giniego, Pola pod krzywą ROC - Analiza lift: wykres lift, wykres gain, raport wartości lift 6

5. Szkolenie Wykonawca w ramach zakupu oprogramowania statystycznego zapewni przeprowadzenie w siedzibie Zamawiającego (salę zapewni Zamawiający) dwa standardowe szkolenia Wykonawcy. Szkolenia Wykonawcy mają być przeznaczone dla pracowników Uczelni, które pozwolą uczestnikom efektywnie wykorzystać narzędzia analizy danych programu statystycznego w badaniach naukowych i dydaktyce. Każde ze szkoleń ma trwać ok. 4 godzin i może mieć formę prezentacji, w której będzie mogła uczestniczyć dowolna liczba uczestników (w zależności od pojemności sali/auli Zamawiającego.) Szkolenia powinny być przeprowadzone w terminie: - pierwsze szkolenie nie później niż w lutym 2019, - drugie szkolenie między październikiem 2020 a lutym 2021. Dokładne terminy szkoleń zostaną uzgodnione przez Strony do 4 tygodni od dnia dostawy oprogramowania. 7